Springer-Lehrbuch
Dietlinde Lau
Algebra und Diskrete Mathematik 1 Grundbegriffe der Mathematik, Algebraische Strukturen 1, Lineare Algebra und Analytische Geometrie, Numerische Algebra Zweite, korrigierte und erweiterte Auflage
123
Prof. Dr. Dietlinde Lau Universität Rostock Institut für Mathematik Universitätsplatz 1 18055 Rostock E-mail:
[email protected]
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Mathematics Subject Classification (2000): 15-01, 65Fxx
ISBN 978-3-540-72364-6 2. Aufl. Springer Berlin Heidelberg New York ISBN 978-3-540-20397-1 1. Aufl. Springer-Verlag Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2004, 2007 Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Text und Abbildungen wurden mit größter Sorgfalt erarbeitet. Verlag und Autor können jedoch für eventuell verbliebene fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Satz: Datenerstellung durch die Autorin unter Verwendung eines Springer TEX-Makropakets Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Umschlaggestaltung: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier
175/3180/YL - 5 4 3 2 1 0
Vorwort zur zweiten Auflage
Die zweite Auflage unterscheidet sich von der ersten durch die Korrektur der inzwischen gefundenen Druckfehler, einigen Umformulierungen sowie ¨ Erg¨ anzungen zum Kapitel 1 und den Kapiteln des Teils IV, in dem die Ubungsaufgaben zu den Kapiteln I–III zu finden sind. Dem Wunsch einiger Leser folgend, habe ich in Erg¨anzung zum vorliegenden ¨ Buch ein Buch mit den L¨ osungen zu den Ubungsaufgaben aus Teil IV geschrieben, das zeitgleich mit der vorliegenden zweiten Auflage beim Springer-Verlag unter dem Titel ¨ Ubungsbuch zur Linearen Algebra und analytischen Geometrie erscheint. ¨ Sehr hilfreich beim Uberarbeiten der ersten Fassung des vorliegenden Buches waren die Hinweise von Herrn Prof. Dr. L. Berg (Rostock). Besonders dankbar bin ich Herrn Dr. W. Harnau (Dresden), der in den letzten Monaten das ¨ gesamte Buch durchgearbeitet hat und dessen Anderungsvorschl¨ age ich fast ¨ alle beim Uberarbeiten des Buches umgesetzt habe. Mein Dank gilt nat¨ urlich auch allen Lesern, die mir ihre Meinung zur ersten Auflage geschrieben haben und denen ich ebenfalls Hinweise auf Druckfehler ¨ und Anderungsvorschl¨ age verdanke.
Rostock, im Juni 2007
Dietlinde Lau
Vorwort zur ersten Auflage
Soll ich mich im allgemeinen Sinne ¨ uber P¨ adago” gik ¨ außern, so will ich folgende Betrachtung vorausschicken: Man kann das p¨ adagogische Problem mathematisch formulieren, indem man die individuellen Qualit¨ aten des Lehrers und seiner n Sch¨ uler als ebensoviele Unbekannte einf¨ uhrt und verlangt, eine Funktion von (n + 1) Variablen F (x0 , . . . , xn ) unter gegebenen Nebenbedingungen zu einem Maximum zu machen. Ließe sich dieses Problem eines Tages entsprechend den bisher realisierten Fortschritten der psychologischen Wissenschaft direkt mathematisch behandeln, so w¨ are die (praktische) P¨ adagogik von da ab eine Wissenschaft, — solange das aber nicht der Fall ist, muß sie als Kunst gelten.“ ¨ Auf(F. Klein (1849 – 1926) in seinem Vortrag: Uber ” gabe und Methode des mathematischen Unterrichts an Universit¨ aten“)
Das vorliegende Buch ist aus Vorlesungen entstanden, die die Autorin f¨ ur Physik-, Mathematik- und insbesondere Informatikstudenten zur Linearen Algebra und analytischen Geometrie bzw. im Rahmen eines Grundkurses Mathematik f¨ ur die Informatikstudenten an der Universit¨at Rostock gehalten hat. Eingedenk der Probleme, die insbesondere viele Studienanf¨anger mit dem Fach Mathematik als solches, der Umstellung von der Schulvermittlung des Fachs Mathematik zum (komprimierten) Vorlesungsstil an den Universit¨aten haben und wegen des Heranf¨ uhrens an die Beweistechniken der Mathematik, wird versucht, die wichtigsten Beweise sehr ausf¨ uhrlich darzustellen und sie durch Beispiele vor- und nachzubereiten. Wert wird außerdem darauf gelegt, Teile der Schulmathematik zu wiederholen und zu erg¨anzen. Anliegen des Buches ist es auch, diejenigen Teile des Vorlesungsstoffes, die aus Zeitgr¨ unden sehr kurz behandelt werden m¨ ussen, zu erg¨anzen.
VIII
Vorwort zur ersten Auflage
Besonders wichtige Teile (meist gewisse S¨ atze) der einzelnen Kapitel sind schattiert, und Teile, die beim ersten Lesen u ¨ bergangen werden k¨onnen bzw. zu den zwar wichtigen, aber in Vorlesungen meist nicht angegebenen Teilen des hier vermittelten Stoffes geh¨ oren, sind im Kleindruck angegeben. Um m¨ oglichst eng an der Vorlesungsvermittlung des Stoffes zu sein, sind Definitionen und S¨ atze unter Verwendung von (platzsparenden) Symbolen — meist aus der mathematischen Logik — formuliert, die eingangs des ersten Kapitels erl¨ autert werden. F¨ ur besonders oft auftretende Begriffe werden auuhrt. ßerdem — wie in der Vorlesung — Abk¨ urzungen1 eingef¨ Es sei darauf verwiesen, daß einzelne Kapitel auch unabh¨angig von den anderen Kapiteln lesbar sind, so daß man nicht gezwungen ist, zum Verst¨andnis z.B. von Kapitel 3 die beiden vorherigen zu lesen. Die einzelnen Kapitel sind numeriert und sind wiederum in einzelne — mit einer neuen Z¨ahlung beginnende — Abschnitte untergliedert. S¨ atze und Lemmata aus Kapitel x, Abschnitt y, werden in der Form x.y.i fortlaufend numeriert. Das Ende eines Beweises wird durch kenntlich gemacht. ¨ steht f¨ ¨ Die Abk¨ urzung UA ur Ubungsaufgabe. Da sich bekanntlich das Verst¨andnis f¨ ur Mathematik u ¨ ber das Bearbeiten von Aufgaben vertiefen l¨aßt, sind ¨ nicht nur im nachfolgenden Text eine Reihe von Ubungsaufgaben angegeben, sondern zu jedem der Kapitel 1 – 15 findet man in den Kapiteln 16 – 18 eine ¨ Zusammenstellung von Ubungsaufgaben, anhand der die Leser testen k¨onnen, ob sie den behandelten Stoff verstanden haben und ob sie ihn auch anwenden k¨ onnen. Die Anzahl der Aufgaben ist so gew¨ahlt, daß gen¨ ugend Aufgaben ¨ f¨ ur die zur Vorlesung geh¨ orenden w¨ ochentlichen Ubungen und Hausaufgaben sowie f¨ ur das Selbststudium vorhanden sind. Zum Inhalt: Kapitel 1 beginnt mit einer Zusammenstellung von mathematischen Begriffen (wie z.B. die Begriffe: Menge, Relation, Korrespondenz, Abbildung, Operation, Graph, ...), die in sp¨ ateren Kapiteln, aber auch in vielen hier nicht behandelten Gebieten der Mathematik zu den Grundbegriffen geh¨oren. Dem Anf¨ anger wird erfahrungsgem¨ aß die Abstraktheit“ dieser Begriffe etwas ” zu schaffen machen, jedoch ist es — eine langj¨ahrige Erfahrung — nur eine ¨ Frage der Zeit und der Ubung, bis man sich daran gew¨ohnt hat bzw. man es lernt, den Nutzen dieser Begriffsbildungen zu erkennen. Den Lesern sei gerade ¨ f¨ ur dieses Kapitel die Bearbeitung der Ubungsaufgaben aus 16.1 empfohlen, um sich m¨ oglichst schnell diesen Begriffsapparat u ¨ber die Anwendungen zu erschließen. Kapitel 2 f¨ uhrt kurz in die — f¨ ur die Entwicklung der Mathematik der letzten zwei Jahrhunderte sehr wichtige — Denkweise, n¨amlich der in algebraischen ” Strukturen“, ein. Behandelt werden einige Grundlagen aus der Theorie der 1
Eine Liste der verwendeten Symbole und Abk¨ urzungen sowie Hinweise, auf welcher Seite sie eingef¨ uhrt wurden, findet man ab S. 473.
Vorwort zur ersten Auflage
IX
Halbgruppen, Gruppen, Ringe, K¨orper, Verb¨ande und Booleschen Algebren. Sie dienen außerdem als erste Vorbereitung auf Methoden und Denkweisen in der Theoretischen Informatik. Eine Fortsetzung findet dieses Kapitel im Teil III von Band 2, wo u.a. auch weitere Eigenschaften von K¨orpern hergeleitet werden und Anwendungen der K¨ orpertheorie (z.B. in der Codierungstheorie) gezeigt werden. Der in den Kapiteln 3 – 11 behandelte Stoff wird allgemein zur sogenannten Linearen Algebra und analytischen Geometrie gerechnet und ist nach soviel Abstrakten“ in den ersten beiden Kapiteln eine Art Erholung“. Anwendun” ” gen dieser Teile der Mathematik sind entweder sofort oder leichter erkennbar. ¨ Da ein erster Schwerpunkt unserer Uberlegungen L¨osungsmethoden und L¨osbarkeitskriterien f¨ ur beliebige lineare Gleichungssysteme sind, werden im Kapitel 3 zun¨ achst Hilfsmittel dazu — n¨ amlich die Determinanten und Matrizen — vorgestellt und ihre Eigenschaften ermittelt. Die anschließende Untersuchung der linearen Gleichungssysteme ist dann sehr einfach und — spart man einmal den rein numerischen Aspekt (wie Rundungsfehler u.¨a.) bei der Behandlung von Gleichungssystemen aus, mit denen wir uns sp¨ater befassen werden — f¨ ur die nachfolgenden Kapitel ausreichend behandelt. Es sei hier bereits darauf verwiesen, daß die Matrizen und Determinanten auch Anwendungen haben, die weit u ¨ber die hier behandelten hinausgehen. Mit den im Kapitel 4 eingef¨ uhrten Vektorraumbegriff wird einer der grundlegenden und Verbindungen schaffender Begriff aus der Algebra, Analysis, Geometrie und mathematischen Physik behandelt. So lassen sich z.B. die Anschauungsebene bzw. der Anschauungsraum, in denen man Geometrie betreiben kann, mit Hilfe des Vektorraumbegriffs einheitlich beschreiben und zu sogenannten affinen Punktr¨aumen verallgemeinern, was im Kapitel 5 gezeigt wird. Wir beginnen in diesem Abschnitt auch mit der Wiederholung geometrischer Grundaufgaben. Besonders wichtig und interessant sind Vektorr¨aume mit Skalarprodukt, die im Mittelpunkt des Kapitels 6 stehen. Auch hier soll die Leistungsf¨ ahigkeit der neuen Begriffen zun¨achst anhand von Anwendungen in der Geometrie — genauer bei der Behandlung der euklidischen und unit¨aren affinen Punktr¨aume — im Kapitel 7 erl¨autert werden. In Vorbereitung auf Kapitel 9 behandeln wir im Kapitel 8 die sogenannten Eigenwerte, Eigenvektoren und Normalformen von Matrizen. Auch hier behandeln wir Begriffe und S¨ atze, die nicht nur in der Linearen Algebra eine Rolle spielen. Es sei hier schon angemerkt, daß f¨ ur das Verst¨andnis von Kapitel 9 nur die Aussagen u ¨ ber die Eigenwerte, Eigenvektoren und Normalformen von symmetrische Matrizen aus Kapitel 8 ben¨otigt werden. Die Ergebnisse u ur beliebige Matrizen (u.a. die Jordansche Normalform) ¨ ber Normalformen f¨ werden im Kapitel 10 verwendet. Im Kapitel 9 geht es u.a. um die Frage, welche geometrischen Objekte durch Gleichungen, in denen (grob gesagt) die Variablen h¨ochstens im Quadrat vor-
X
Vorwort zur ersten Auflage
kommen, beschrieben werden k¨ onnen. Das hierbei entwickelte Verfahren — die sogenannte Hauptachsentransformation — wird es uns erm¨oglichen, ausgehend von gewissen Gleichungen, die Bedingungen f¨ ur die Koordinaten gewisser geometrischer Objekte angeben — durch reines Rechnen — Lage und Typ dieser Objekte zu erfassen. Eingesetzt werden dabei auch viele in vorherigen Kapitel eingef¨ uhrten Hilfsmittel (wie z.B. die Matrizen), durch die ¨ unsere durchzuf¨ uhrenden Uberlegungen und Rechnungen erst u ¨bersichtlich und durchschaubarer werden. Mit den Kapiteln 3 – 9 (mit Ausnahme gewisser Aussagen u ¨ ber Normalformen von Matrizen) haben wir einen gewissen Grundstandard, den man auch in vielen anderen B¨ uchern u ¨ ber Lineare Algebra und analytischer Geometrie findet, behandelt. Um den Leser den Einstieg in weiterf¨ uhrende Literatur2 zu erm¨oglichen, sind in den Kapiteln 10 und 11 Begriffe und S¨ atze zusammengestellt, die in meist f¨ ur Mathematiker geschriebenen B¨ uchern viel fr¨ uher eingef¨ uhrt werden, um den hier in den Kapitel 3 – 9 behandelten Stoff allgemeiner zu erarbeiten. Konkret geht es im Kapitel 10 um Eigenschaften sogenannter lineare Abbildungen zwischen Vektorr¨ aumen und im Kapitel 11 um Eigenschaften affiner Abbildungen zwischen Punktr¨ aumen. Da in der Vorlesung meist nicht viel Zeit ist, den Inhalt von Kapitel 10 und 11 sowie den von gewissen Teilen von Kapitel 8 ausf¨ uhrlich zu behandeln, seien diese Kapitel den Lesern insbesondere f¨ ur das Selbststudium empfohlen. Der Inhalt der Kapitel 12 – 14 wird u ¨ blicherweise der Numerischen Mathematik zugeordnet. Unter Numerischer Mathematik bzw. unter Numerik versteht man diejenigen Teile der Mathematik, in denen mathematische Gr¨oßen aus gegebenen Zahlen auch zahlenm¨ aßig berechnet werden. Insbesondere besch¨ aftigt sich die Numerik mit dem Aufstellen von Rechenvorschriften, nach denen aus Eingangsdaten, die oft mit (bekannten) Fehlern behaftet sind, die gew¨ unschten Ausgangsdaten mit absch¨atzbarer Genauigkeit berechnet werden. Die Numerik setzt in der Regel dort ein, wo ein Problem (z.B. der Algebra oder Analysis) als gel¨ ost angesehen werden kann, weil z.B. die Existenz einer L¨osung nachgewiesen oder ein L¨osungsalgorithmus (m¨oglicherweise aus unendlich vielen Schritten bestehend) gefunden wurde. Bei der konkreten Ermittlung der L¨ osung eines Problems ergeben sich dann aber eine Reihe von Schwierigkeiten, die numerische Verfahren erfordern. Welche Schwierigkeiten dies sind und welche L¨ osungsans¨ atze es zum Beheben dieser Schwierigkeiten gibt, wird im Kapitel 12 erl¨ autert. Im Kapitel 13 geht es um N¨ aherungsverfahren zum L¨osen von Gleichungen. Grundlage fast aller angegebenen Verfahren ist dabei der sogenannte Banachsche Fixpunktsatz. 2
Damit ist nicht nur Literatur zur Linearen Algebra und analytischen Geometrie, sondern auch Literatur zur Funktionalanalysis gemeint.
Vorwort zur ersten Auflage
XI
Kapitel 14 setzt unsere Untersuchungen zu linearen Gleichungssystemen (kurz: LGS), die jeweils nur genau eine L¨ osung besitzen, fort. Es wird erl¨autert, warum f¨ ur LGS mit sogenannter schlechter Kondition unsere L¨osungsverfahren aus Kapitel 3 beim praktischen Rechnen (auf dem Computer oder per Hand) i.w. unbrauchbar sind und N¨ aherungsverfahren f¨ ur das L¨osen solcher LGS entwickelt, die nicht nur f¨ ur schlecht konditionierte LGS geeignet sind. Im kurzen Kapitel 15 u ¨ber Interpolation wird (unter Verwendung von zwei Ergebnissen aus Kapitel 3) das Interpolationsproblem mit Polynomen gel¨ost. Anwenden lassen sich die hierbei erzielten Resultate z.B. bei der numerischen Integration. Die in den Kapiteln 13 – 15 vorgestellten Verfahren geh¨oren bereits zur angewandten Mathematik. Mehr u ¨ ber die Anwendungen der in diesem Band zusammengestellten mathematischen Gebiete sowie eine Fortsetzung der Theorie findet der Leser dann im Band 2, der aus den Teilen • • •
Lineare Optimierung Graphen und Algorithmen Algebraische Strukturen und Allgemeine Algebra mit Anwendungen
besteht. Große Teile der im Band 2 behandelten Gebiete rechnet man zur sogenannten Diskreten Mathematik. Das Wort diskret“ steht hierbei nat¨ urlich nicht ” f¨ ur verschwiegen“ oder unauff¨ allig“, sondern charakterisiert Teilbereiche der ” ” Mathematik, die sich vorrangig mit endlichen Mengen besch¨aftigen. Dies geschieht zwar in fast jedem Teilbereich der Mathematik, jedoch hat die Entwicklung der elektronischen Datenverarbeitung dazu gef¨ uhrt, daß fr¨ uher (wegen des großen Rechenaufwandes“) nicht praktikable Algorithmen inzwischen ” ihre Anwendungen und Verbesserungen erfahren haben. Seit einigen Jahren ist es deshalb u ¨blich, Gebiete der Mathematik, die gewisse Anwendungen in der Informatik besitzen oder die sich durch den enormen Aufschwung der elektronischen Datenverarbeitung entwickelten, unter dem Oberbegriff Diskrete ” Mathematik“ zusammenzufassen. Inzwischen ist die Diskrete Mathematik mit ihren Kernbereichen Kombinatorik, Graphentheorie, Algorithmentheorie, Optimierung und Theorie der diskreten Strukturen eine Grundlagenwissenschaft f¨ ur Mathematiker und Informatiker. Anliegen von Band 2 wird es sein – aufahlte Gebiete der Diskreten Mathematik dies bauend auf Band 1 – f¨ ur ausgew¨ nachzuweisen. Insbesondere soll gezeigt werden, wie effektiv sich der vorher behandelte mathematische Apparat“ beim L¨ osen der verschiedensten — ins” besondere auch praktischen — Aufgaben einsetzen l¨aßt. Nicht vers¨ aumen m¨ ochte ich es, mich bei Herrn Dipl.-Math. Hans-Christian Pahlig zu bedanken, der die erste LATEX–Fassung des vorliegenden Buches aus einer — von der Verfasserin von einigen Jahren auf dem PC 1715 geschriebenen — alten Computervariante entwickelt hat, wobei insbesondere von ihm s¨ amtliche Zeichnungen neu entworfen und programmiert wurden.
XII
Vorwort zur ersten Auflage
Meinen Rostocker Kollegen Herrn Prof. Dr. R. Kn¨orr, Herrn Dr. F. Leitenberger und Frau Dr. K. Mahrhold gilt mein Dank f¨ ur die kritische Durchsicht ¨ einzelner Kapitel und einiger Anderungsund Erg¨anzungsvorschl¨age. Bei den Mitarbeitern des Springer-Verlages m¨ ochte ich mich f¨ ur die sehr angenehme Zusammenarbeit bedanken. Rostock, im November 2003
Dietlinde Lau
Inhaltsverzeichnis
Teil I Grundbegriffe der Mathematik und Algebraische Strukturen 1
Mathematische Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Logische Zeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Elemente der Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Korrespondenzen, Abbildungen und Verkn¨ upfungen . . . . . . . . . . 1.5 M¨ achtigkeiten, Kardinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Boolesche Funktionen und Pr¨ adikate . . . . . . . . . . . . . . . . . . . . . . . 1.7 Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 3 4 15 21 27 35 51
2
Klassische algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Halbgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Ringe und K¨ orper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Verb¨ ande und Boolesche Algebren . . . . . . . . . . . . . . . . . . . . . . . . .
59 60 66 82 93
Teil II Lineare Algebra und analytische Geometrie 3
Lineare Gleichungssysteme, Determinanten und Matrizen . 107 3.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.2 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 3.3 Rang von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS . . . . . . . . . . 143
4
Vektorr¨ aume u orper K . . . . . . . . . . . . . . . . . . . . . . . 157 ¨ ber einem K¨ 4.1 Die Definition eines Vektorraums u ¨ ber K, Beispiele . . . . . . . . . . 157 4.2 Untervektorr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 4.3 Lineare Abh¨ angigkeit und lineare Unabh¨angigkeit . . . . . . . . . . . 164 4.4 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
XIV
Inhaltsverzeichnis
4.5 Lineare Unabh¨ angigkeit und Basen u ¨ber einem Untervektorrraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 4.6 Dimensionss¨ atze, Isomorphie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 4.7 Koordinaten, Basistransformationen . . . . . . . . . . . . . . . . . . . . . . . 180 →
→
4.8 Anwendungen f¨ ur Vektoren aus V2 bzw. V3 . . . . . . . . . . . . . . . . . 183 5
Affine R¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 5.1 Die Definition eines affinen Raumes, Beispiele . . . . . . . . . . . . . . . 189 5.2 Koordinaten und Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . . 191 5.3 Affine Unterr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 5.4 Schnitt und Verbindung affiner R¨ aume . . . . . . . . . . . . . . . . . . . . . 196 5.5 Parallele affine Unterr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
6
Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 →
→
6.1 Das Skalarprodukt in V2 bzw. V3 . . . . . . . . . . . . . . . . . . . . . . . . . . 199 6.2 Das Skalarprodukt in Vektorr¨ aumen u ¨ber den K¨orpern R oder C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 6.3 Norm (Betrag) von Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 6.4 Winkel zwischen Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 6.5 Orthogonalit¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 6.6 Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 7
Euklidische und unit¨ are affine Punktr¨ aume . . . . . . . . . . . . . . . . 241 7.1 Abstandsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 7.2 Winkel- und Volumenmessung in euklidischen Punktr¨aumen . . 244 7.3 Koordinatentransformationen in kartesischen Koordinatensystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
8
Eigenwerte, Eigenvektoren und Normalformen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 8.1 Motivation, Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen . . . . . 259 8.3 Verallgemeinerte Eigenr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 ¨ 8.4 Uberf¨ uhrung von symmetrischen Matrizen in Diagonalgestalt . 279 8.5 Jordansche Normalformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
9
Hyperfl¨ achen 2. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 9.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 9.2 Hauptachsentransformation (Beweis von Satz 9.1.1) . . . . . . . . . . 300 9.3 Klassifikation der Kurven 2. Ordnung . . . . . . . . . . . . . . . . . . . . . . 316 9.4 Klassifikation der Fl¨ achen 2. Ordnung . . . . . . . . . . . . . . . . . . . . . . 323
Inhaltsverzeichnis
XV
10 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 10.1 Allgemeines u ¨ber lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 329 10.2 Adjungierte Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 10.3 Normale Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 10.4 Selbstadjungierte und antiselbstadjungierte Abbildungen . . . . . 344 10.5 Unit¨ are und orthogonale Abbildungen, Isometrien . . . . . . . . . . . 345 10.6 Normalformen linearer Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 346 10.7 Gruppen aus linearen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 348 11 Affine Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 11.1 Allgemeines u ¨ber affine Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 351 11.2 Gruppen gewisser affiner Abbildungen . . . . . . . . . . . . . . . . . . . . . . 354 11.3 Einige Invarianten affiner Abbildungen . . . . . . . . . . . . . . . . . . . . . 355 Teil III Numerische Algebra 12 Einf¨ uhrung in die Numerische Mathematik . . . . . . . . . . . . . . . . 361 12.1 Fehlertypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 12.2 Fehlerfortpflanzung bei differenzierbaren Funktionen . . . . . . . . . 363 12.3 Maschinenzahlen, Rundungsfehler . . . . . . . . . . . . . . . . . . . . . . . . . 366 12.4 Intervallarithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 13 Gleichungsaufl¨ osung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 13.1 Problemstellung, geometrische Deutung . . . . . . . . . . . . . . . . . . . . 373 13.2 Der Banachsche Fixpunktsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 13.3 Das Newton-Verfahren, die Regula falsi . . . . . . . . . . . . . . . . . . . . 379 13.4 Polynomgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384 13.4.1 Absch¨ atzungen f¨ ur Polynomnullstellen . . . . . . . . . . . . . . . 384 13.4.2 Das Horner-Schema und das zweizeilige Horner-Schema 385 13.4.3 Verfahren zur Nullstellenberechnung von pm . . . . . . . . . . 388 14 Lineare Gleichungssysteme mit genau einer L¨ osung . . . . . . . . 391 14.1 Der Gauß-Algorithmus (mit Pivotisierung) . . . . . . . . . . . . . . . . . . 392 14.2 Vektor- und Matrixnormen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 14.3 Die Kondition von LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 14.4 Elementare Iterationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 14.4.1 Das Jacobi-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 14.4.2 Das Gauß-Seidel-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 403 14.4.3 Konvergenzbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 14.5 Projektionsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 14.5.1 Grundidee der Projektionsverfahren . . . . . . . . . . . . . . . . . 407 14.5.2 Projektion auf Hyperebenen . . . . . . . . . . . . . . . . . . . . . . . . 409 14.5.3 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
XVI
Inhaltsverzeichnis
15 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 15.1 Einf¨ uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 15.2 Interpolation mit Polynomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416 ¨ Teil IV Ubungsaufgaben ¨ 16 Ubungsaufgaben zum Teil I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 16.1 Aufgaben zum Kapitel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 16.2 Aufgaben zum Kapitel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434 ¨ 17 Ubungsaufgaben zum Teil II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 17.1 Aufgaben zum Kapitel 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 17.2 Aufgaben zum Kapitel 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446 17.3 Aufgaben zum Kapitel 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448 17.4 Aufgaben zum Kapitel 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 17.5 Aufgaben zum Kapitel 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452 17.6 Aufgaben zum Kapitel 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453 17.7 Aufgaben zum Kapitel 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455 17.8 Aufgaben zum Kapitel 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457 17.9 Aufgaben zum Kapitel 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458 ¨ 18 Ubungsaufgaben zum Teil III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461 18.1 Aufgaben zum Kapitel 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461 18.2 Aufgaben zum Kapitel 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462 18.3 Aufgaben zum Kapitel 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 18.4 Aufgaben zum Kapitel 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477
Teil I
Grundbegriffe der Mathematik und Algebraische Strukturen
1 Mathematische Grundbegriffe
1.1 Logische Zeichen In vielen mathematischen Gebieten hat es sich als zweckm¨aßig erwiesen, bestimmte Formulierungen durch Verwendung logischer Zeichen zu formalisieren. Nachfolgend sind die von uns verwendeten wichtigsten Symbole in einer Tabelle zusammengefaßt:
Zeichen
Lesart
∧
und
∨
oder
¬
nicht
=⇒
wenn - dann; daraus folgt
⇐⇒
genau dann, wenn
:=
definitionsgleich
:⇐⇒
definitionsgem¨ aß ¨aquivalent
∃
es existiert (mindestens) ein
∃!
es existiert genau ein
∀
f¨ ur alle
Das Zeichen := benutzen wir, um z.B. die Bezeichnung A durch eine Formel ϕ zu erkl¨ aren, wobei dann A := ϕ geschrieben wird. Wird A dagegen durch einen umgangssprachlichen Satz S, der entweder wahr oder falsch ist, erkl¨art, schreiben wir A :⇐⇒ S.
4
1 Mathematische Grundbegriffe
Um Klammern zu sparen, schreiben wir anstelle von ∃x ( E ) (gelesen: Es ” existiert ein x mit der Eigenschaft E“) kurz ∃x : E. Entsprechendes sei f¨ ur Formeln, die das Zeichen ∀ enthalten, vereinbart. Außerdem steht ∀x ∃y : ... f¨ ur ∀x (∃y (...)), usw. Erste Anwendungen obiger Zeichen folgen im n¨achsten Abschnitt, so daß wir hier auf Beispiele verzichten k¨ onnen. Die mathematische Theorie zu diesen Zeichen ist Gegenstand der sogenannten Aussagenlogik und Pr¨adikatenlogik, von denen wir Teile im Abschnitt 1.6 behandeln werden.
1.2 Elemente der Mengenlehre Wir beginnen mit der Einf¨ uhrung des Mengenbegriffs nach dessen Begr¨ under Georg Cantor1 : Definition“ Eine Menge ist jede Zusammenfassung von bestimmten, ” wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens – welche die Elemente dieser Menge genannt werden – zu einem Ganzen. Das Wort Definition steht hier in Anf¨ uhrungszeichen, da der zu erkl¨arende Begriff Menge mittels weiterer, undefinierter Begriffe (z.B. Objekt) erl¨autert wird. Unter einer echten Definition versteht man dagegen die Erkl¨arung eines neuen Begriffs aus bereits definierten Begriffen. Wir werden weiter unten sehen, daß die obige Definition sehr schnell zu Unklarheiten und sogar zu logischen Widerspr¨ uchen (!) f¨ uhrt. Man hat deshalb versucht (bzw. man versucht immer noch), den Mengenbegriff exakter zu fassen. Das ist jedoch letztlich unm¨ oglich, denn irgendwelche Begriffe muß man undefiniert lassen, um die erste Definition einer Theorie angeben zu k¨ onnen. Es ist jedoch gelungen2 , den Mengenbegriff so einzuf¨ uhren, daß zumindest bis heute keine logischen Widerspr¨ uche herleitbar waren. Dieser exakte Weg der Begr¨ undung der Mengenlehre kann hier jedoch aus Platzgr¨ unden nicht angegeben werden. Wir bleiben also bei der obigen naiven Definition“, m¨ ussen jedoch beim Umgang ” damit vorsichtig sein. Warum das so ist, wird nach der Angabe einiger Vereinbarungen und Bezeichnungen an zwei Beispielen erl¨autert. Zun¨ achst einige Vereinbarungen: 1
2
Georg Cantor (1845–1918). Er schrieb von 1875 bis 1884 grundlegende Arbeiten zur Mengenlehre und legte damit das Fundament f¨ ur das moderne Verst¨ andnis vom Wesen der Mathematik. Wer mehr u ater noch erw¨ ahnten Mathematikern wissen ¨ ber Cantor und die sp¨ ¨ m¨ ochte, sei auf [Mes 73] oder [Wuß-A 89] verwiesen. Einen ersten Uberblick u ¨ ber die Geschichte der Mathematik mit vielen Verweisen auf weitere Literatur findet man in [Wuß 89]. Historische Anmerkungen zu den in diesem Band behandelten Teilgebieten der Mathematik, die u ubersicht hinausgehen, entnehme ¨ber eine Kurz¨ man [Alt 2003], [Scr-S 2003] und [Bri 83]. Siehe z.B. [Ass 75].
1.2 Elemente der Mengenlehre
Bezeichnungen f¨ ur Mengen:
große Buchstaben;
Bezeichnungen f¨ ur die Elemente der Mengen:
kleine Buchstaben;
5
Kurzschreibweise f¨ ur x ist Element von M“: x ∈ M; ” Kurzschreibweise f¨ ur x ist nicht Element von M“: x ∈ / M. ” Eine Menge M kann man (u.a.) auf drei Arten angeben: (1.) Durch eine (unmißverst¨ andliche) verbale Formulierung. Beispiel M sei die Menge aller im Jahre 2000 an der Rostocker Universit¨ at immatrikulierten Studenten. (2.) Durch Aufz¨ ahlen (falls m¨ oglich) der Elemente a1 , a2 , . . . der Menge M . Wir schreiben: M = {a1 , a2 , . . .}. (3.) Durch eine charakteristische Eigenschaft E f¨ ur Objekte aus einer Grundgesamtheit G, die genau den Elementen von M zukommen soll. Wir schreiben: M := {x | x ∈ G erf¨ ullt E} oder M := {x ∈ G | x erf¨ ullt E}. Beispiel
G :={1, 2, 3, 4, . . .} (die Menge der nat¨ urlichen Zahlen), M := {x ∈ G | x ist eine gerade Zahl}.
Nun zwei Beispiele zur Erl¨ auterung der Schwierigkeiten mit dem oben definierten Mengenbegriff. Erstes Beispiel Ist A := . . . . {{{{{{{{ a }}}}}}}}. . . . unendlich viele Klammern
eine Menge? Diese Frage ist nach obiger Definition einer Menge nicht zu beantworten. Wer A als Menge akzeptieren will (er muß es nicht!), der hat als n¨achstes zu kl¨aren, ob A ∈ A gilt. Zweites Beispiel Sei M := {x | x Menge ∧ x ∈ / x}, d.h., M ist die Menge aller Mengen, die sich nicht selbst enthalten. M ist nach obiger Definition“ offensichtlich eine ” Menge. Jedoch aus M ∈ M folgt M ∈ / M und aus M ∈ / M folgt M ∈ M . Zitat aus [Lid-P 82]:
6
1 Mathematische Grundbegriffe
Wie man sich dreht und wendet: es geht nicht – es bleibt uns nur der ” Strick!“ Das obige zweite Beispiel heißt nach Bertrand Russell (1872–1970) Russellsches Paradoxon, obwohl es nicht nur paradox ist, sondern in eine logische Sackgasse f¨ uhrt. Halten wir also fest: Vorsicht bei zu großz¨ ugiger Mengenbildung! Man vermeide unendlich viele Klammern (d.h., man bilde nur in endlich vielen Schritten aus bekannten Mengen neue Mengen) und definiere nicht so global, wie etwa M sei die ” Menge aller Mengen“! Besonders h¨ aufig auftretende Mengen erhalten von uns besondere Bezeichnungen und Namen: N := {1, 2, 3, . . .} Menge der nat¨ urlichen Zahlen P := {2, 3, 5, 7, 11, . . .}
Menge der Primzahlen
Z := {0, 1, −1, 2, −2, . . .}
Menge der ganzen Zahlen
Q := {x | ∃a ∈ Z ∃b ∈ N : x = ab }
Menge der rationalen Zahlen
R := {x | x ist ein (endlicher oder unendlicher) Dezimalbruch} Menge der reellen Zahlen C := {x | ∃a ∈ R ∃b ∈ R : x = a + bi ∧ i2 = −1} Menge der komplexen Zahlen (Ausf¨ uhrlich wird C im Abschnitt 2.3 behandelt.) N0 := {0, 1, 2, 3, . . .}
X + := {x ∈ X | x > 0} f¨ ur X ∈ {Z, Q, R}
X0+ := {x ∈ X | x ≥ 0} f¨ ur X ∈ {Z, Q, R} [a, b] := {x ∈ R | a ≤ x ≤ b} [a, b) := {x ∈ R | a ≤ x < b} (a, b] := {x ∈ R | a < x ≤ b} (a, b) := {x ∈ R | a < x < b}
Auf eine exakte Definition der Zahlenmengen N, Z, Q und R wollen wir an dieser Stelle verzichten und uns mit der naiven Vorstellung begn¨ ugen, daß man sich die reellen Zahlen geometrisch als Punkte auf einer Geraden vorstellen kann, wobei Q die Gerade noch nicht, jedoch R diese Gerade ausf¨ ullt“. ” Die u ur die Zahlenmengen N0 , Z, Q, R setzen wir nach¨blichen Rechenregeln f¨ folgend als bekannt voraus. Als spezielle Eigenschaft von N (bzw. N0 ) sei le-
1.2 Elemente der Mengenlehre
7
diglich genannt, daß jede Menge nat¨ urlicher Zahlen, die aus mindestens einem Element besteht, ein kleinstes Element enth¨ alt. Mit Hilfe dieser Eigenschaft l¨ aßt sich nun ein wichtiges Beweisverfahren, die sogenannte vollst¨ andige Induktion, begr¨ unden. Satz 1.2.1 Sei A(n) eine Aussage u urlichen Zahlen n ≥ a (a ¨ ber alle nat¨ dabei aus N und fest gew¨ahlt). A(n) ist f¨ ur alle n ≥ a richtig, wenn folgende zwei Bedingungen erf¨ ullt sind: (I) A(a) ist richtig. (II) Aus der Annahme der G¨ ultigkeit von A(n) f¨ ur alle n mit a ≤ n ≤ k folgt stets die G¨ ultigkeit von A(k + 1). Beweis.3 Angenommen, (I) und (II) sind erf¨ ullt, jedoch gilt A(n) nicht f¨ ur alle n ≥ a. Dann gibt es ein kleinstes b, f¨ ur das A(b) falsch ist, wobei b > a (wegen (I)). Folglich ist A(b − 1) richtig und b − 1 ≥ a. Das ist jedoch ein Widerspruch zu (II). (I) aus obigem Satz wird Induktionsanfang und (II) Induktionsschritt genannt, wobei die in (II) getroffene Annahme oft auch Induktionsvoraussetzung und die Begr¨ undung f¨ ur (II) Induktionsbeweis heißt. Man beachte, daß in (II) keine Aussage u undung, mit der man von ¨ ber die Begr¨ A(n) f¨ ur a ≤ n ≤ k zu A(k+1) gelangt, gemacht wird. Diese Begr¨ undung kann also im Prinzip f¨ ur jedes n eine andere sein; das Versagen einer Beweisidee f¨ ur gewisses k l¨ aßt also keinen Schluß auf das Versagen der vollst¨andigen Induktion bei einer konkreten Aufgabenstellung zu. Außerdem kann es m¨oglich sein, daß eine bestimmte Beweisidee beim Induktionsschritt die Richtigkeit der Behauptung f¨ ur paarweise verschiedene Zahlen n ≤ k erfordert. In diesem Fall ist der Induktionsanfang (I) nicht nur f¨ ur eine Zahl, sondern entsprechend ¨ f¨ ur mehrere Zahlen durchzuf¨ uhren. Ein Beispiel dazu findet man in der UA A.1.8, (h). Die vollst¨ andige Induktion wird von uns vorrangig als Beweishilfsmittel Verwendung finden. Sie kann jedoch auch bei der sogenannten rekursiven Definition bzw. rekursiven Konstruktion von Objekten herangezogen werden: Man definiert von n (∈ N) abh¨ angige Objekte O(n), indem man zuerst O(1) angibt und dann ein Verfahren, mit dem man O(n + 1) aus O(n) (bzw. O(k) mit k ≤ n) erhalten kann. Wegen Satz 1.2.1 ist damit O(n) f¨ ur alle n ∈ N definiert. 3
Dies ist unser erstes Beispiel f¨ ur einen sogenannten indirekten Beweis. Wir nehmen an, daß bei den gegebenen Voraussetzungen die Behauptung falsch ist, und zeigen, daß sich hieraus ein Widerspruch ergibt. Geht man davon aus, daß eine Behauptung entweder wahr oder falsch ist, folgt hieraus die Richtigkeit der Behauptung.
8
1 Mathematische Grundbegriffe
Der folgende Satz mit Eigenschaften von Primzahlen ist den meisten Lesern sicher aus der Schule her bekannt. Sein Beweis dient hier zur Erl¨auterung der bisher eingef¨ uhrten Beweistypen (vollst¨ andige Induktion und indirekter Beweis). Wir werden sp¨ ater sehen, daß Primzahlen wichtige Anwendungen besitzen. Satz 1.2.2 (a) Jede nat¨ urliche Zahl n mit n ≥ 2 l¨aßt sich auf eindeutige Weise als Produkt von Primzahlpotenzen darstellen: α2 αr 1 n = pα 1 · p2 · ... · pr ,
(1.1)
wobei p1 , p2 , ..., pr ∈ P mit p1 < p2 < ... < pr und α1 , α2 , ..., αr ∈ N. (b) Es gibt unendlich viele Primzahlen. Beweis. (a): Wir beginnen mit dem Beweis der Existenz von (1.1) durch vollst¨ andige Induktion u ¨ ber n ≥ 2. (I) n = 2. Da 2 eine Primzahl ist, gilt offenbar (1.1) f¨ ur n = 2. (II) k −1 −→ k. Angenommen, f¨ ur alle nat¨ urlichen Zahlen n mit 2 ≤ n ≤ k −1 ist (1.1) richtig. F¨ ur n = k sind zwei F¨ alle m¨ oglich: Fall 1: k ∈ P. Dann gilt offenbar (1.1). Fall 2: k ∈ P. In diesem Fall existieren Zahlen a, b ∈ N mit k = a · b, 1 < a < k und 1 < b < k. F¨ ur a und b existieren laut Annahme Darstellungen in Form von Produkten aus Primzahlpotenzen. Wegen k = a · b besitzt dann auch k eine Darstellung als Produkt von Primzahlpotenzen. Die Eindeutigkeit der Darstellung (1.1) l¨ aßt sich durch einen indirekten Beurliche Zahl n existieren zwei weis zeigen. Angenommen, f¨ ur eine gewisse nat¨ verschiedene Darstellungen der im Satz angegebenen Art. Durch Division von gemeinsamen Potenzen gelangt man dann zu einem Widerspruch (ausf¨ uhrlich: ¨ UA). (b): Angenommen, es gibt nur endlich viele Primzahlen, die mit p1 , p2 , ..., pt bezeichnet seien, wobei p1 < p2 < ... < pt gelte. Wir betrachten die nat¨ urliche Zahl n := 1 + p1 · p2 · ... · pt . Nach (a) existieren gewisse α1 , ..., αt ∈ N0 mit α2 αt 1 n = pα 1 · p2 · ... · pt .
Da n > 1, ist mindestens ein αi mit i ∈ {1, 2, ..., t} von 0 verschieden. Aus obigen Darstellungen von n folgt dann, daß pi sowohl ein Teiler von n als auch von n − 1 ist, d.h., es existieren u, v ∈ N mit n = pi · u und n − 1 = pi · v. Folglich gilt auch pi · (u − v) = 1, was wegen pi > 1 und pi , u, v ∈ N nicht sein
1.2 Elemente der Mengenlehre
9
kann. Also war unsere Annahme falsch und damit die Behauptung richtig.
Wir kommen nun zu den Grundbegriffen bzw. wichtigen Begriffen der Mengenlehre. Definitionen •
Die Menge, die aus gar keinem Element besteht, heißt leere Menge und wird mit ∅ bezeichnet, d.h., z.B. ∅ := {x | x = x}.
•
A und B seien Mengen. A ⊆ B ( A ist Teilmenge von B“ bzw. B ist Obermenge von A“) ” ” :⇐⇒ ∀x ∈ A : x ∈ B. A = B :⇐⇒ A ⊆ B ∧ B ⊆ A. A = B :⇐⇒ ¬(A = B).
A ⊂ B ( A ist echte Teilmenge von B“) :⇐⇒ A ⊆ B ∧ A = B. ” Die leere Menge ist Teilmenge jeder Menge. Außerdem gilt f¨ ur beliebige Mengen A, B, C: (A ⊆ B ∧ B ⊆ C) =⇒ A ⊆ C. Man beachte: {a} ∈ / {a}, aber {a} ⊆ {a} und a ∈ {a}. {{a}} = {a}. Definition
Sei A eine Menge. Die Menge P(A) := {M | M ⊆ A}
aller Teilmengen von A heißt Potenzmenge von A. Beispiel
A = {0, 1}, P({0, 1}) = {∅, {0}, {1}, {0, 1}}.
Satz 1.2.3 Sei M eine endliche, nichtleere Menge und bezeichne |M | die Anzahl ihrer Elemente. Dann gilt |P(M )| = 2|M| .
10
1 Mathematische Grundbegriffe
¨ A.1.11. Beweis. UA Die Aussage von Satz 1.2.3 motiviert auch folgende u ur ¨ bliche Bezeichnung f¨ die Potenzmenge einer Menge M : 2M . F¨ ur beliebige Mengen A, B kann man folgende vier Mengenoperationen definieren, die wir uns mittels sogenannter Venn4 -Diagramme (Eulersche5 Kreise) veranschaulichen: •
Durchschnitt von A und B: A ∩ B := {x | x ∈ A ∧ x ∈ B} A∩B C ' $ C CW B A & %
Falls A ∩ B = ∅, nennen wir A und B disjunkt. •
Vereinigung von A und B: A ∪ B := {x | x ∈ A ∨ x ∈ B} A∪B B A '$
•
& %
Differenz von A und B:
A\B := {x | x ∈ A ∧ x ∈ / B} 4 5
John Venn (1834–1923), englischer Philosoph. Leonhard Euler (1701–1783), schweizer Mathematiker, Physiker, Astronom und Philosoph. Schrieb entscheidende Beitr¨ age zu fast allen damaligen Gebieten der Mathematik, Physik und Astronomie. Verfasser hervorragender Lehrb¨ ucher. Einige von ihm eingef¨ uhrte Begriffe und Bezeichnungen werden noch heute verwendet.
1.2 Elemente der Mengenlehre
A\B B A'$
& %
•
11
Bei einer fixierten Grundmenge G und A ⊆ G bezeichnen wir G\A auch mit A und nennen diese Menge das Komplement von A (bez. G). Symmetrische Differenz von A und B: A△B := (A\B) ∪ (B\A) A△B B A' Q $ s Q
& %
Zusammenfassend geben wir die oben definierten Mengenoperationen noch in Form von Tabellen an, die man zum sp¨ ateren Nachweis von Rechenregeln f¨ ur diese Operationen heranziehen kann. Dazu schreiben wir die vier m¨oglichen F¨ alle f¨ ur ein beliebiges x: x∈ /A x∈ /A x∈A x∈A
und und und und
x∈ /B x∈B x∈ /B x∈B
kurz durch A 0 0 1 1
B 0 1 0 1
auf. Eine vollst¨ andige Charakterisierung der Mengen A∩B, A∪B, A\B und A△B liefert dann die nachfolgende Tabelle, in der eine 0 oder 1 in der entsprechenden Spalte unter A ∩ B, . . . angibt, ob im jeweiligen Fall x zu dieser Menge nicht geh¨ ort oder geh¨ ort:
12
1 Mathematische Grundbegriffe
A B A ∩ B A ∪ B A\B A△B 0 0 0 0 0 0 0 1 0 1 0 1 1 0 0 1 1 1 1 1 1 1 0 0 . Allgemeiner kann man f¨ ur Mengen Ai (i aus einer Indexmenge) Durchschnitte und Vereinigungen durch i∈I Ai := {x | ∀i ∈ I : x ∈ Ai } und i∈I Ai := {x | ∃i ∈ I : x ∈ Ai } definieren. Auch u ¨blich sind die Schreibweisen A bzw. A, A∈S
A∈S
wobei S ein Mengensystem (z.B. S := {Ai | i ∈ I}) bezeichnet. Eine weitere Beschreibung f¨ ur die Menge A∈S A (bzw. A∈S A) ist {A | A ∈ S} ( {A | A ∈ S} ).
Im nachfolgenden Satz fassen wir wesentliche Eigenschaften der oben definierten Mengen zusammen. Satz 1.2.4 F¨ ur beliebige Teilmengen A, B, C eines Grundbereichs G gilt: (a) (A ∩ B) ∩ C = A ∩ (B ∩ C) (A ∪ B) ∪ C = A ∪ (B ∪ C) (A△B)△C = A△(B△C) (b) A ∩ B = B ∩ A A∪B =B∪A A△B = B△A (c) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) A ∩ (B ∆ C) = (A ∩ B) ∆ (A ∩ C) (d) A ∪ A = A A∩A=A (e) (A\B) ∩ C = (A ∩ C)\(B ∩ C) A\(B ∩ C) = (A\B) ∪ (A\C) (A\B) ∪ B = A ∪ B A\(B ∪ C) = (A\B) ∩ (A\C) (f ) A ∩ B = A ∪ B A∪B = A∩B (g) A = A.
(Assoziativgesetze)
(Kommutativgesetze)
(Distributivgesetze) (Idempotenzgesetze)
(Morgansche Gesetze)
1.2 Elemente der Mengenlehre
13
Beweis. Wir wollen hier nur (A\B) ∩ C = (A ∩ C)\(B ∩ C) beweisen. Die Begr¨ undungen f¨ ur die anderen Aussagen verlaufen analog. Zun¨ achst eine Veranschaulichung unserer Behauptung durch ein Venn-Diagramm: linke Seite der Gleichung: A B '$ '$ '$ > A\B&% 7 &% C &% (A\B) ∩ C
rechte Seite der Gleichung: A B '$ '$ '$ @@ @ l@@ B∩C @@ &% &% 6l C &% (A ∩ C)\(B ∩ C) A∩C
Diese Veranschaulichung l¨ aßt vermuten, daß unsere Behauptung richtig ist. Sie ist jedoch kein Beweis! Nachfolgend werden zwei Beweise angegeben. Im ersten Beweis wird gezeigt, daß (A\B)∩C ⊆ (A∩C)\(B ∩C) und (A∩C)\(B ∩C) ⊆ (A\B)∩C gilt, woraus sich nach der Definition der Gleichheit von zwei Mengen die Behauptung (A\B) ∩ C = (A ∩ C)\(B ∩ C) ergibt. (A\B) ∩ C ⊆ (A ∩ C)\(B ∩ C) folgt aus x ∈ (A\B) ∩ C =⇒ =⇒ =⇒ =⇒
x∈A\B ∧ x∈C (x ∈ A ∧ x ∈ B) ∧ x ∈ C x ∈ A ∩ C ∧ x ∈ B ∩ C x ∈ (A ∩ C) \ (B ∩ C).
(A ∩ C)\(B ∩ C) ⊆ (A\B) ∩ C folgt aus x ∈ (A ∩ C) \ (B ∩ C) =⇒ =⇒ =⇒ =⇒ =⇒
x ∈ A ∩ C ∧ x ∈ B ∩ C (x ∈ A ∧ x ∈ C) ∧ (x ∈ B ∨ x ∈ C) x ∈ A ∧ x ∈ C ∧ x ∈ B x∈A\B ∧ x∈C x ∈ (A \ B) ∩ C.
Ein weiterer Beweis wird durch die folgende Tabelle erbracht, indem – die oben vereinbarte Codierung benutzend – f¨ ur die m¨ oglichen 8 F¨alle der Zugeh¨origkeit bzw. Nichtzugeh¨ origkeit eines beliebigen Elements x zu den Mengen A, B und C aufgeschrieben wird, welche Zugeh¨ origkeit/Nichtzugeh¨origkeit von x zu den in der ersten Zeile angegebenen Mengen sich hieraus ergibt. Die Gleichheit der unterstrichenen Spalten liefert die Behauptung.
14
1 Mathematische Grundbegriffe
A B C A\B (A\B) ∩ C A ∩ C B ∩ C (A ∩ C)\(B ∩ C) 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 1 0 0 0 1 0 1 0 0 1 0 0 0 0 1 0 1 1 1 1 0 1 1 1 0 0 0 0 0 0 1 1 1 0 0 1 1 0 Definitionen
Seien A und B nichtleere Mengen. Die Menge A × B := {(a, b) | a ∈ A ∧ b ∈ B}
heißt kartesisches Produkt der Mengen A, B. Die Elemente (a, b) von A × B nennt man geordnete Paare, wobei (a, b) = (c, d) :⇐⇒ (a = c ∧ b = d). Allgemeiner: Seien A1 , A2 , . . . , An nichtleere Mengen. Die Menge n
n A1 × A2 × . . . × An = i=1 Ai ) i=1 Ai (oder =
:= {(a1 , a2 , . . . , an ) | ∀i ∈ {1, 2, . . . , n} : ai ∈ Ai }
heißt kartesisches Produkt der Mengen A1 , A2 , . . . , An . Die Elemente von A1 × A2 × . . . × An nennt man (geordnete) n-Tupel, wobei (a1 , a2 , . . . , an ) = (b1 , b2 , . . . , bn ) :⇐⇒ ∀i ∈ {1, . . . , n} : ai = bi . Weiter seien A1 := A, A2 := A × A, A3 := A × A × A, . . . . Man beachte, daß A × (A × A) = A × A2 = A3 ist. Falls Ai = ∅ f¨ ur ein gewisses i ∈ {1, 2, ..., n}, sei A1 × A2 × ... × An = ∅. Beispiel
W¨ahlt man A = {0, 1} und B = {∅, a}, so gilt A × B = {(0, ∅), (1, ∅), (1, a), (0, a)}, A3 = {(a, b, c) | a, b, c ∈ {0, 1}} und A × A2 = {(a, b) | a ∈ A ∧ b ∈ A2 }.
Satz 1.2.5 F¨ ur beliebige nichtleere endliche Mengen A1 , A2 , . . . , An gilt: |A1 × A2 × . . . × An | = |A1 | · |A2 | · . . . · |An |. Beweis.
¨ 1.1.12. UA
1.3 Relationen
15
1.3 Relationen Zwischen den Elementen einer Menge k¨ onnen gewisse Beziehungen ( Rela” tionen“) wie z.B. <“, teilt“, ist Summe von“, u.¨a. bestehen. Exakt (und ” ” ” ziemlich abstrakt) l¨ aßt sich so etwas mathematisch mit Hilfe des folgenden Begriffes beschreiben: Definition Es sei A eine nichtleere Menge und k ∈ N. R heißt k-stellige (k-¨ are) Relation in A :⇐⇒ R ⊆ Ak . Beispiel
Sei A = {1, 2, 3, 4, 5, 6}. Relationen in A sind dann
R1 := ∅, R2 := {(a, a) | a ∈ A}, R3 := {(a, b) ∈ A2 | a|b} = R2 ∪ {(1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 4), (2, 6), (3, 6)}, R4 := {(a, b, c) ∈ A3 | a2 + b2 = c2 } = {(3, 4, 5), (4, 3, 5)}. Besonders wichtig sind zweistellige Relationen R in A, die auch bin¨ are Relationen genannt werden, und mit denen wir uns im weiteren besch¨aftigen wollen. Als Schreibweise f¨ ur (a, b) ∈ R (⊆ A2 ) ist bei bin¨ aren Relationen auch u ¨ blich: aRb. M¨ ogliche Eigenschaften bin¨ arer Relationen R in A sind: R reflexiv
:⇐⇒ ∀a ∈ A : (a, a) ∈ R;
R irreflexiv
:⇐⇒ ∀a ∈ A : (a, a) ∈ / R;
R symmetrisch
:⇐⇒ ∀a, b ∈ A : (a, b) ∈ R =⇒ (b, a) ∈ R;
R antisymmetrisch :⇐⇒ ∀a, b ∈ A : ((a, b) ∈ R =⇒ (b, a) ∈ / R ∨ a = b); R asymmetrisch
:⇐⇒ ∀a, b ∈ A : (a, b) ∈ R =⇒ (b, a) ∈ / R;
R transitiv
:⇐⇒ ∀a, b, c ∈ A : ((a, b) ∈ R ∧ (b, c) ∈ R) =⇒ (a, c) ∈ R;
R linear
:⇐⇒ ∀a, b ∈ A : (a, b) ∈ R ∨ (b, a) ∈ R.
Man beachte, daß die leere Menge stets die obigen Bedingungen der Form ... =⇒ ... erf¨ ullt. Außerdem bedeutet die Schreibweise (a, b) nicht automatisch, daß a = b ist. Damit ist z.B. die Relation {(x, x) | x ∈ A} nicht nur eine reflexive, sondern auch eine transitive, symmetrische und antisymmetrische Relation in A. Eine lineare Relation ist offensichtlich auch reflexiv.
16
1 Mathematische Grundbegriffe
Mit Hilfe der oben eingef¨ uhrten Bezeichnungen kann man gewisse Klassen von Relationen einf¨ uhren: Definitionen R heißt reflexive teilweise Ordnung auf A :⇐⇒ R ist reflexiv, transitiv und antisymmetrisch; R heißt lineare Ordnung (totale Ordnung) :⇐⇒ R ist transitiv, antisymmetrisch und linear; R heißt irreflexive teilweise Ordnung auf A :⇐⇒ R ist irreflexiv und transitiv; ¨ R heißt Aquivalenzrelation auf A :⇐⇒ R ist reflexiv, symmetrisch und transitiv. Einige Bemerkungen und Beispiele zu den Ordnungsrelationen (kurz Ordnungen genannt): Ordnungen sind Verallgemeinerungen der u ¨ blichen ≤“- bzw. <“-Beziehung ” ” von reellen Zahlen. Bekanntlich gilt: ∀a, b, c ∈ R: a≤a a ≤ b =⇒ (¬(b < a) ∨ a = b) (a ≤ b ∧ b ≤ c) =⇒ a ≤ c a < b =⇒ a = b (a < b ∧ b < c) =⇒ a < c a≤b ∨ b≤a
(d.h., (d.h., (d.h., (d.h., (d.h., (d.h.,
≤ ≤ ≤ < < ≤
ist ist ist ist ist ist
reflexiv) antisymmetrisch) transitiv) irreflexiv) transitiv) linear)
Allgemein kann man Ordnungen in einer Menge A als Festlegungen einer Rangfolge“ von Elemente der Menge A auffassen, wobei Ordnungen nicht ” unbedingt linear sein m¨ ussen, d.h., nicht f¨ ur jedes Paar von Elementen aus A muß festgelegt sein, welches vom gr¨ oßeren Rang“ ist. Gilt f¨ ur eine Ordnung ” R in A und gewissen Elementen a, b ∈ A, daß (a, b) ∈ R und (b, a) ∈ R ist, so nennt man die Elemente a und b bez¨ uglich R unvergleichbar. Dazu ein Beispiel Sei A := P({a, b}) = {∅, {a}, {b}, {a, b}}. Die Relation R := {(X, Y ) ∈ A × A | X ⊆ Y } = {(∅, ∅), (∅, {a}), (∅, {b}), (∅, {a, b}), ({a}, {a}), ({a}, {a, b}), ({b}, {b}), ({b}, {a, b}), ({a, b}, {a, b})} ist offenbar eine reflexive teilweise Ordnung. Indem man sich die Elemente von A durch Punkte symbolisiert und
rY r
X zeichnet, falls (X, Y ) zu R geh¨ ort, kann man sich R wie folgt veranschaulichen:
1.3 Relationen
17
{a, b} r 6 I @ @ @ @r r I {b} {a}@ @ @ @r ∅ Verzichtet man auf diejenigen Pfeile, die sich aus der Transitivit¨at und Reflexivit¨ at ergeben und vereinbart man, die gr¨oßeren“ Elemente oberhalb der ” kleineren“ Elemente anzuordnen, so gen¨ ugt zur Veranschaulichung der Re” lation R folgende Zeichnung: {a, b} s @ @ @s s {a}@ {b} @ @s ∅ Eine solche Darstellung einer reflexiven teilweisen Ordnung nennt man Hasse6 -Diagramm. So geh¨ ort z.B. zum Hasse-Diagramm 6s 4s @ @ @ @ @s @s s5 2@ 3 @ @s 1 die Relation {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 4), (2, 6), (3, 6)} (= {(a, b) ∈ {1, 2, 3, 4, 5, 6}2 | a teilt b}). Ein Beispiel f¨ ur eine irreflexive teilweise Ordnung ist {(X, Y ) ∈ (P(A))2 | X ⊂ Y }. 6
Helmut Hasse (1898–1979), deutscher Mathematiker.
18
1 Mathematische Grundbegriffe
Auch f¨ ur solche Relationen kann man Hasse-Diagramme vereinbaren, wobei die Irreflexivit¨ at extra anzugeben ist. Es sei noch bemerkt, daß man anstelle von (a, b) ∈ R (R sei Ordnungsrelation) auch oft a ≤R b, falls R reflexiv, und a
¨ Auf jeder Menge A kann man stets zwei sogenannte triviale Aquivalenzrelationen definieren: R0 := {(a, a) | a ∈ A} und R1 := A × A. ¨ Ein nicht-triviales Beispiel f¨ ur eine Aquivalenzrelation auf der Menge A := Z × N, die man als Menge aller Br¨ uche auffassen kann, ist {((a, b), (c, d)) ∈ A × A | a · d = b · c}, die bekannte Gleichheit von Br¨ uchen. ¨ Zur n¨ aheren Beschreibung von Aquivalenzrelationen ben¨otigen wir die Begriffe ¨ Aquivalenzklasse und Zerlegung, die als n¨ achstes definiert werden sollen. Definition
¨ Sei a ∈ A und R eine Aquivalenzrelation auf A. Die Menge [a]R := {b ∈ A | (a, b) ∈ R} (kurz nur mit [a] bezeichnet)
¨ heißt Aquivalenzklasse von a (bez. R). Einige Beispiele ¨ F¨ ur die trivialen Aquivalenzrelationen R0 und R1 auf einer Menge A und einem Element a ∈ A gilt: [a]R0 = {a} und [a]R1 = A.
1.3 Relationen
19
Falls A := {0, 1, 2, 3} und R := {(0, 0), (1, 1), (2, 2), (3, 3), (0, 1), (1, 0), (0, 3), (3, 0), (1, 3), (3, 1)}, haben wir [0]R = {0, 1, 3} = [1]R = [3]R sowie [2]R = {2}. ¨ Eigenschaften von Aquivalenzklassen sind zusammengefaßt im ¨ Satz 1.3.1 Sei R eine Aquivalenzrelation auf einer Menge A. Dann ist (1) a∈A [a]R = A; und f¨ ur beliebige a, b ∈ A gilt: (2) [a]R = [b]R ⇐⇒ (a, b) ∈ R; (3) [a]R ∩ [b]R = ∅ ∨ [a]R = [b]R .
ur jedes a ∈ A. Beweis. (1) gilt, da a ∈ [a]R f¨ (2): =⇒“: Sei [a] = [b]. Dann ist b ∈ [a] und folglich (a, b) ∈ R. ” ⇐=“: Sei (a, b) ∈ R. Aus der Symmetrie von R ergibt sich hieraus auch ” (b, a) ∈ R. Wir zeigen [b] ⊆ [a]. Bezeichne x ein beliebiges Element aus [b]. Dann gilt (b, x) ∈ R. Wegen (a, b) ∈ R und der Transitivit¨at von R ergibt sich hieraus (a, x) ∈ R, d.h., x ∈ [a]. Also gilt [b] ⊆ [a]. Analog zeigt man [a] ⊆ [b]. Folglich haben wir [a] = [b]. (3): Angenommen, es existieren a, b ∈ A mit [a] ∩ [b] = ∅ und [a] = [b]. Dann gibt es ein c, das sowohl zu [a] als auch zu [b] geh¨ort, d.h., es gilt (a, c) ∈ R und (b, c) ∈ R. Wegen der Symmetrie von R haben wir (c, b) ∈ R und (wegen der Transitivit¨ at von R) (a, b) ∈ R. Nach (2) gilt dann [a] = [b], im Widerspruch zur Annahme. Definition Sei A eine nichtleere Menge. Nichtleere Mengen Ai (i ∈ I) nennt man eine Zerlegung (Partition, Klasseneinteilung) der Menge A, wenn A= Ai ∧ (∀i, j ∈ I : Ai = Aj ∨ Ai ∩ Aj = ∅) i∈I
gilt. Man sagt A ist die disjunkte Vereinigung der Mengen Ai“. Eine ” Zerlegung wird manchmal auch in der Form Z := {Ai | i ∈ I} angegeben, und die Elemente der Menge Z nennt man Blocks. Beispiele ¨ ¨ Nach Satz 1.3.1, (1), (3) bilden die Aquivalenzklassen einer Aquivalenzrelation auf A eine Zerlegung der Menge A. ¨ Betrachtet man speziell die Aquivalenzrelation
20
1 Mathematische Grundbegriffe
R = {(0, 0), (1, 1), (2, 2), (0, 2), (2, 0)} auf A = {0, 1, 2}, so ist die zu R geh¨ orende Zerlegung der Menge A: A1 = {0, 2}, A2 = {1}. Mit Hilfe von A1 , A2 kann man auch wieder zur Relation R gelangen, indem man {(a, b) ∈ A2 | {a, b} ⊆ A1 ∨ {a, b} ⊆ A2 } (= R) bildet, womit man von R zu einer Zerlegung und von dieser Zerlegung wieder zu R gelangen kann. Allgemein gilt der ¨ Satz 1.3.2 (Hauptsatz u ¨ber Aquivalenzrelationen) Sei A eine nichtleere Menge. Dann gilt: ¨ ¨ (1) Ist R eine Aquivalenzrelation auf A, so bilden die Aquivalenzklassen [a]R (a ∈ A) eine Zerlegung von A. (2) Die Mengen Ai (i ∈ I) m¨ogen eine Zerlegung Z von A bilden. Dann ist die Relation RZ := {(a, b) ∈ A2 | ∃i ∈ I : {a, b} ⊆ Ai } ¨ eine Aquivalenzrelation auf A. ¨ ¨ Besteht die Zerlegung Z speziell aus den Aquivalenzklassen einer Aquivalenzrelation R, so ist RZ = R. Beweis. (1) folgtaus Satz 1.3.1. (2): Wegen A = i∈I Ai ist RZ reflexiv. RZ ist symmetrisch, da {a, b} = {b, a}. RZ ist auch transitiv, da f¨ ur beliebige a, b, c aus A nach den Eigenschaften einer Zerlegung gilt: ((a, b) ∈ R ∧ (b, c) ∈ R) =⇒ ∃i, j ∈ I : {a, b} ⊆ Ai ∧ {b, c} ⊆ Aj =⇒Ai ∩Aj =∅=⇒Ai =Aj
=⇒ {a, c} ⊆ Ai =⇒ (a, c) ∈ RZ .
¨ Folglich ist RZ eine Aquivalenzrelation, die nach Konstruktion wieder mit R ¨ u von R besteht. ¨ bereinstimmt, falls die Zerlegung aus den Aquivalenzklassen ¨ Der eben bewiesene Satz gibt uns die M¨ oglichkeit, Aquivalenzrelationen mit¨ tels Zerlegungen zu definieren bzw. Zerlegungen durch Aquivalenzrelationen. Sehr oft macht man beim Anwenden dieser Begriffe deshalb keinen Unter¨ schied zwischen Aquivalenzrelationen und ihren zugeh¨origen Zerlegungen.
1.4 Korrespondenzen, Abbildungen und Verkn¨ upfungen
21
Der nachfolgende Begriff wird im Kapitel 2 und im Band 2 ben¨otigt. Definition
¨ Sei R eine Aquivalenzrelation auf der Menge A. Die Menge A/R := {[a]R | a ∈ A} ¨ (die Menge aller Aquivalenzklassen der Relation R)
heißt Faktormenge von A nach R. ¨ Abschließend noch ein wichtiges Beispiel f¨ ur eine Aquivalenzrelation auf der Menge der ganzen Zahlen, die sogenannte Kongruenz modulo n: F¨ ur beliebiges n ∈ N sei ≡n := {(a, b) ∈ Z × Z | n teilt a − b}. F¨ ur n teilt x“ schreiben wir nachfolgend n|x. Offenbar gilt: ” (a, b) ∈≡n ⇐⇒ ∃x, y ∈ Z ∃r ∈ N0 : a = x·n+r ∧ b = y·n+r ∧ 0 ≤ r ≤ n−1. Anstelle von (a, b) ∈≡n benutzen wir auch die Schreibweisen a ≡n b bzw. a = b (mod n) (gesprochen: a kongruent b modulo n“). ” ¨ ¨ auf Man pr¨ uft nun leicht nach (UA A.1.36), daß ≡n eine Aquivalenzrelation ¨ der Menge Z ist. F¨ ur die Aquivalenzklassen dieser Relation gilt: [0] [1] [2]
= {0, n, −n, 2 · n, −2 · n, 3 · n, −3 · n, . . .}, = {1, n + 1, −n + 1, 2 · n + 1, −2 · n + 1, . . .}, = {2, n + 2, −n + 2, 2 · n + 2, −2 · n + 2, . . .}, .. .
[n − 1] = {n − 1, n + n − 1, −n + n − 1, 2 · n + n − 1, −2 · n + n − 1, . . .}, [n] = [0], [n + 1] = [1], .. . Die Faktormenge von Z nach ≡n ist damit {[0], [1], [2], . . . , [n − 1]}, die wir u ¨ blicherweise kurz mit Zn bezeichnen wollen.
1.4 Korrespondenzen, Abbildungen und Verknu ¨pfungen Definition Es seien A und B nichtleere Mengen. F heißt Korrespondenz aus A in B:⇐⇒ F ⊆ A × B. Zwecks geometrischer Veranschaulichung von Korrespondenzen vereinbaren wir:
22
#
1 Mathematische Grundbegriffe
a
"! A
' $ b
: ⇐⇒ (a, b) ∈ F
& % B
Beispiele (1.) Bin¨ are Relationen sind Korrespondenzen (A = B). (2.) F¨ ur A = {0, 1, 2} und B = {a, b} ist z.B. F = {(0, a), (0, b), (1, b)} eine Korrespondenz aus A in B. Definitionen • •
Sei F ⊆ A × B eine Korrespondenz. Dann heißt
D(F ) := {a ∈ A | ∃b ∈ B : (a, b) ∈ F } der Definitionsbereich von F , W (F ) := {b ∈ B | ∃a ∈ A : (a, b) ∈ F } der Wertebereich von F .
Man sagt: • F ist eine Korrespondenz aus A in B
:⇐⇒ D(F ) ⊆ A ∧ W (F ) ⊆ B,
• F ist eine Korrespondenz aus A auf B
:⇐⇒ D(F ) ⊆ A ∧ W (F ) = B,
• F ist eine Korrespondenz von A in B
:⇐⇒ D(F ) = A ∧ W (F ) ⊆ B,
• F ist eine Korrespondenz von A auf B :⇐⇒ D(F ) = A ∧ W (F ) = B. Aus vorgegebenen Korrespondenzen lassen sich neue Korrespondenzen bilden. Dazu zwei Definitionen •
F¨ ur die Korrespondenz F ⊆ A × B sei F −1 := {(b, a) | (a, b) ∈ F }
•
die zu F inverse Korrespondenz (Umkehrkorrespondenz) aus B in A. Seien F ⊆ A × B und G ⊆ B × C. Dann heißt die Menge F 2G := {(a, c) ∈ A × C | ∃b ∈ B : (a, b) ∈ F ∧ (b, c) ∈ G} Verkettung (Produkt, Hintereinanderausf¨ uhrung) von F und G.
Beispiele (1.) Seien F = {(0, 0), (0, 1), (2, 0), (2, 3)} und G = {(0, 2), (1, 1)}. Dann gilt F −1 = {(0, 0), (1, 0), (0, 2), (3, 2)} und F 2G = {(0, 2), (0, 1), (2, 2)}. (2.) F¨ ur F = {(x, x2 ) | x ∈ R} und G = {(x, sin(x)) | x ∈ R} gilt F 2G = {(x, sin(x2 )) | x ∈ R}.
1.4 Korrespondenzen, Abbildungen und Verkn¨ upfungen
23
Satz 1.4.1 Seien F ⊆ A × B, G ⊆ B × C und H ⊆ C × D Korrespondenzen. Dann gilt: (1) F 2(G2H) = (F 2G)2H; (2) (F 2G)−1 = G−1 2F −1 .
7
¨ Beweis. (1) ergibt sich aus folgenden Aquivalenzen, die f¨ ur beliebiges a ∈ A und d ∈ D gelten: (a, d) ∈ F 2(G2H) ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
∃b ∈ B : (a, b) ∈ F ∧ (b, d) ∈ G2H ∃b ∈ B ∃c ∈ C : (a, b) ∈ F ∧ (b, c) ∈ G ∧ (c, d) ∈ H ∃c ∈ C : (a, c) ∈ F 2G ∧ (c, d) ∈ H (a, d) ∈ (F 2G)2H.
(2) folgt aus (c, a) ∈ (F 2G)−1 ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
(a, c) ∈ F 2G ∃b ∈ B : (a, b) ∈ F ∧ (b, c) ∈ G ∃b ∈ B : (b, a) ∈ F −1 ∧ (c, b) ∈ G−1 (c, a) ∈ G−1 2F −1 .
Jetzt zu den (f¨ ur die folgenden Abschnitte) wichtigen speziellen Korrespondenzen. Definition Eine Korrespondenz f von A in B heißt (eindeutige) Abbildung (oder Funktion oder Operator) :⇐⇒ ∀a ∈ A ∃! b ∈ B : (a, b) ∈ f ( ⇐⇒ ((D(f ) = A) ∧ (∀a ∈ A : (a, b) ∈ f ∧ (a, c) ∈ f =⇒ b = c))). Zur Bezeichnung von Abbildungen verwenden wir meist kleine Buchstaben. In der Regel werden wir Abbildungen f von A in B nicht als gewisse Teilmengen von A × B angeben, sondern folgende Schreibweise verwenden: f : A −→ B, a → b = f (a). (a → b = f (a) steht f¨ ur (a, b) ∈ f“ und anstelle von b schreiben wir f (a).) ” Daneben gibt es eine Reihe von anderen M¨ oglichkeiten der Darstellung von Abbildungen, die je nach Art der Abbildung bzw. der Mengen A und B Verwendung finden. Wir nennen die drei wichtigsten: •
7
die analytische Darstellung (Funktionsgleichung): Die Abbildung f wird mit Hilfe von Formeln u ¨ber einem Variablenalphabet und gewissen Symbolen beschrieben. z.B. f (x) = x3 + 7x − 8 (x ∈ R) oder f (x) = sin x (x ∈ R). Entspricht einer Erfahrung aus dem t¨ aglichen Leben: Man zieht zuerst Str¨ umpfe, dann Schuhe an. Das Ausziehen (das inverse Vorgehen) geschieht umgekehrt!
24
•
1 Mathematische Grundbegriffe
die geometrische Darstellung: # x
f
#
6
- f (x) bzw. (falls A, B ⊆ R)
f (x)
"! "! A B •
r x
-
die tabellarische Darstellung: f (x) x .. .. . . a b = f (a) .. .. . .
√ Beispiel Es sei A = N und B = R. Dann ist f := {(a, b) ∈ A ×√ B | b = a} eine Abbildung, die man auch in der Form f : N −→ R, a → a angeben kann. Definitionen Es sei f : A −→ B eine Abbildung, A0 ⊆ A, B0 ⊆ B und b ∈ B. Dann sei •
f (A0 ) := {f (a) | a ∈ A0 } ( Bild“ von A0 ), ”
•
f −1 (b) := {a ∈ A | f (a) = b} ( Urbild“ von b), ”
•
f −1 (B0 ) := {a ∈ A | f (a) ∈ B0 } ( Urbild“ von B0 ), ”
•
f|A0 := {(a, f (a)) | a ∈ A0 } bzw. f|A0 sei die durch f|A0 : A0 −→ B, a → f (a) definierte Abbildung, die Einschr¨ ankung (oder Beschr¨ ankung oder Restriktion) von f auf A0 genannt wird.
Die Bezeichnungen aus den folgenden Definitionen werden wir nachfolgend oft benutzen. Definitionen Es seien A und B nichtleere Mengen und f : A −→ B eine Abbildung. Dann heißt •
die Abbildung idA : A −→ A, a → a die identische Abbildung von A auf A;
•
f injektiv (oder eine Injektion oder eineindeutig oder 1-1-Abbildung) :⇐⇒ ∀a, a′ ∈ A : f (a) = f (a′ ) =⇒ a = a′ ;
1.4 Korrespondenzen, Abbildungen und Verkn¨ upfungen
•
f surjektiv (oder eine Surjektion):⇐⇒ W (f ) = B;
•
f bijektiv (oder eine Bijektion) :⇐⇒ f ist injektiv und surjektiv.
25
Satz 1.4.2 Seien f (⊆ A × B) und g (⊆ B × C) Abbildungen. Dann gilt (1) f 2g ist eine Abbildung ( f 2g : A −→ C, x → g(f (x)) ); (2) f, g injektiv (bzw. surjektiv bzw. bijektiv) =⇒ f 2g injektiv (bzw. surjektiv bzw. bijektiv). Beweis. (1): Angenommen, f 2g ist keine Abbildung. Dann gibt es gewisse ur gewisse a, c, c′ mit c = c′ , (a, c) ∈ f 2g und (a, c′ ) ∈ f 2g. Folglich gilt f¨ b, b′ ∈ B, daß (a, b) ∈ f , (b, c) ∈ g, (a, b′ ) ∈ f und (b′ , c′ ) ∈ g ist. Da f eine Abbildung, erhalten wir hieraus: b = b′ , (b, c) ∈ g und (b, c′ ) ∈ g, womit g keine Abbildung ist, im Widerspruch zur Voraussetzung. ¨ A.1.53. (2): UA Leicht u uft man anhand der Definitionen die Richtigkeit von ¨berpr¨ Satz 1.4.3 Sei f eine bijektive Abbildung von A auf B. Dann gilt (1) f −1 ist bijektiv; (2) f 2f −1 = idA ; (3) f −1 2f = idB . Der n¨ achste Satz beschreibt einen Zusammenhang zwischen Abbildungen und ¨ Aquivalenzrelationen. Er bildet die Grundlage von sogenannten Homomorphies¨atzen f¨ ur algebraische Strukturen, mit denen wir uns im Kapitel 2 kurz und im dritten Teil des zweiten Bandes ausf¨ uhrlich besch¨aftigen werden. Satz 1.4.4 (1) Sei f eine Abbildung von A in B. Dann ist die Relation Rf := {(x, y) ∈ A2 | f (x) = f (y)} ¨ eine Aquivalenzrelation auf der Menge A, die sogenannte von f indu” ¨ zierte Aquivalenzrelation“. ¨ (2) Ist umgekehrt eine Aquivalenzrelation R auf A gegeben, so ist die Abbildung g : A −→ A/R , x → [x]R eine Abbildung von A auf die Faktormenge von A nach R mit der Eigenschaft, daß Rg mit R ¨ ubereinstimmt.
26
1 Mathematische Grundbegriffe
Es besteht sogar eine bijektive Abbildung von f (A) := {f (a) | a ∈ A} auf A/Rf : f (a) → [a]Rf . Schematisch: - f (A) * bijektiv ?
A
A/R f
Beweis.
¨ UA.
Wir kommen nun zu den sogenannten Verkn¨ upfungen. Definition Sei A eine nichtleere Menge. Eine Abbildung von A × A in A heißt eine innere Verkn¨ upfung (bzw. Operation) auf A. F¨ ur innere Verkn¨ upfungen verwenden wir Zeichen wie 2, ◦, +, −, ·, :, . . . . Statt f ((a, b)) (f dabei aus {2, ◦, +, . . .}) schreiben wir f (a, b) bzw. af b, a2b, a ◦ b, a + b, . . . . Beispiele (1.) Die gew¨ ohnliche Addition auf der Menge der reellen Zahlen l¨aßt sich wie folgt beschreiben: + : R × R −→ R, (x, y) → x + y. Sie ist offenbar eine innere Verkn¨ upfung auf R. (2.) Die Verkettung von Relationen 2 : P(A) −→ P(A), (R, Q) → R2Q ist eine innere Verkn¨ upfung auf der Menge P(A). Definition Seien A und K nichtleere Mengen. Eine ¨ außere Verkn¨ upfung auf A mit dem Skalarbereich K ist eine Abbildung ∧K : K × A −→ A, (k, a) → k ∧K a. Beispiel Sei A = R × R und K = R. Die Abbildung ∧K : R × R2 −→ R2 , (k, (x, y)) → (k · x, k · y) (· bezeichnet die u ¨ bliche Multiplikation von reellen Zahlen) ist eine ¨außere Verkn¨ upfung auf R2 mit dem Skalarbereich R. ¨ Definitionen Seien A und K nichtleere Mengen, R eine Aquivalenzrelation außere Verkn¨ upfung auf A. Man sagt auf A, ◦ eine innere und ∧K eine ¨ •
R ist mit ◦ vertr¨ aglich (kompatibel) :⇐⇒ ∀a, a′ , b, b′ ∈ A : ((a, b) ∈ R ∧ (a′ , b′ ) ∈ R) =⇒ (a ◦ a′ , b ◦ b′ ) ∈ R.
•
aglich :⇐⇒ R ist mit ∧K vertr¨ ∀a, b ∈ A ∀k ∈ K : (a, b) ∈ R =⇒ (k ∧K a, k ∧K b) ∈ R.
1.5 M¨ achtigkeiten, Kardinalzahlen
27
¨ Die mit den Verkn¨ upfungen auf einer Menge vertr¨aglichen Aquivalenzrelationen nennt man Kongruenzen dieser Menge. Beispiel In Z ist ≡n (die Kongruenz modulo n) mit der gew¨ohnlichen Ad¨ A.1.36). dition und der gew¨ ohnlichen Multiplikation vertr¨aglich (Beweis: UA Der Sinn der obigen Definitionen ist der, daß man bei vertr¨aglichen R auf A/R mit Hilfe der Verkn¨ upfungen ◦, ∧K auf A ebenfalls Verkn¨ upfungen einf¨ uhren kann. Genaueres dazu im Satz 1.4.5 (mit Definition) Sei A eine Menge mit einer ¨außeren Verupfung ◦, die mit kn¨ upfung ∧K (K gewisse Menge) und einer inneren Verkn¨ ¨ einer Aquivalenzrelation R auf A vertr¨aglich sind. Dann l¨aßt sich auf A/R sinnvoll definieren: (1) [a] ◦ [b] := [a ◦ b], (2) k ∧K [a] := [k ∧K a] (a, b ∈ A, k ∈ K), d.h., die Definition der Verkn¨ upfung ◦ bzw. ∧K auf A/R ist unabh¨angig von der konkreten Wahl der sogenannten Vertreter a, b der ¨ Aquivalenzklassen [a], [b]. Beweis. (1): Seien a, a′ ∈ [a] und b, b′ ∈ [b]. Wir haben [a ◦ b] = [a′ ◦ b′ ] zu zeigen. Aus a, a′ ∈ [a] und b, b′ ∈ [b] folgt (a, a′ ) ∈ R und (b, b′ ) ∈ R. Wegen der Vertr¨ aglichkeit von ◦ mit R ergibt sich hieraus (a ◦ b, a′ ◦ b′ ) ∈ R, womit nach Satz 1.3.1, (2) [a ◦ b] = [a′ ◦ b′ ] gilt. (2) beweist man analog. Beispiel Auf der Menge Zn (= {[0], [1], ..., [n− 1]}) l¨ aßt sich mit Hilfe der gew¨ohnlichen Addition und Multiplikation eine Addition modulo n und eine Multiplikation modulo n definieren: [a] + [b] := [a + b], [a] · [b] := [a · b] (a, b ∈ Z).
1.5 M¨ achtigkeiten, Kardinalzahlen Um festzustellen, ob f¨ ur jeden Studenten in einem Raum ein Sitzplatz vorhanden ist, kann man auf zwei Arten vorgehen: (1) Man z¨ ahlt die Studenten, dann die St¨ uhle und vergleicht. (2) Man bittet die Studenten, Platz zu nehmen und schaut, ob Studenten oder St¨ uhle u ¨ brig bleiben.
28
1 Mathematische Grundbegriffe
Die Methode (2) scheint auf den ersten Blick recht umst¨andlich zu sein. Sie hat aber einen großen Vorteil: Man braucht dazu nicht Z¨ahlen zu k¨onnen, muß jedoch in der Lage sein, eine bijektive Abbildung (Studenten ←→ St¨ uhle) zu finden. Die Methode (2) wird von uns nachfolgend benutzt werden, um festzustellen, ob zwei unendliche“ Mengen gleich groß“ sind. Außerdem werden wir ” ” mit Hilfe der neu eingef¨ uhrten Begriffe und Methoden in der Lage sein, solche von uns bisher intuitiv verwendeten Begriffe wie endliche Menge“ und un” ” endliche Menge“ zu pr¨ azisieren. Dar¨ uberhinaus soll eine kurze Einf¨ uhrung in den Teil der Mengenlehre gegeben werden, der sich mit den Beziehungen zwischen unendlichen Mengen befaßt. Dem Leser sei empfohlen, die vorgestellten Ergebnisse nicht nach dem sogenannten gesunden Menschenverstand“ und ” der Anschauung zu beurteilen, sondern staunend zu akzeptieren, daß im Un” endlichen“ andere Gesetze als im Endlichen“ herrschen. ” Definition Seien A und B Mengen. Man sagt A ist gleichm¨ achtig zu B :⇐⇒ ∃ bijektive Abbildung f von A auf B. F¨ ur A ist gleichm¨ achtig zu B“ schreiben wir kurz: ” A ∼ B. Nachfolgend einige Beispiele f¨ ur gleichm¨ achtige Mengen A und B, wobei ab dem dritten Beispiel die bijektiven Abbildungen f nur durch Zeichnungen charakterisiert werden, die mit mehr oder weniger Aufwand nat¨ urlich auch in Berechnungsvorschriften f¨ ur die Abbildungen u ¨ bersetzt werden k¨onnen. (1.) Offenbar sind endliche Mengen genau dann gleichm¨achtig, wenn sie die gleiche Anzahl von Elementen enthalten. (2.) A = N0 , B = Z. f = {(0, 0), (1, 1), (2, −1), (3, 2), (4, −2), . . . , (2 · k − 1, k), (2 · k, −k), . . .}. (3.) 8 A sei Menge aller Punkte eines Kreises K1 , B sei Menge aller Punkte eines Kreises K2 . f: '$ f (x) x r-r A &% B
(4.) A = [a, b], B = [c, d] ⊆ R. Faßt man die Mengen A und B als Punktmengen auf, die sich durch Strecken geometrisch veranschaulichen lassen, so ist eine bijektive Abbildung f von A auf B wie folgt beschreibbar: 8
Dieses Beispiel findet man bereits in mittelalterlichen Texten und es galt wie ahnliche Beispiele aus der Antike als paradox. ¨
1.5 M¨ achtigkeiten, Kardinalzahlen
29
@ J J@ J@ J@ q xJ @ A J @ J @ J ^q @B f (x) (5.) A = (a, b) ⊆ R, B = R. Analog zu Beispiel (4.) lassen sich A als Punkte einer (geknickten) Strecke (ohne die zu a und b geh¨ orenden Punkte) und B als Menge aller Punkte einer Geraden geometrisch veranschaulichen. Eine m¨ogliche bijektive Abbildung f ergibt sich aus: q @ T @ Tq @ xT @ T A @ T R @ T q B f (x) (6.) A sei die Menge aller Punkte auf einer Kugel ohne N ( Nordpol“), ” B sei die Menge aller Punkte einer Ebene. f: Nr '$
r x B &% r f (x)
Lemma 1.5.1 Sei M irgendeine Menge von Mengen. Dann ist die Relation R := {(A, B) ∈ M 2 | A ist gleichm¨achtig zu B} ¨ eine Aquivalenzrelation auf M . Beweis. Seien A, B, C beliebige Elemente aus M . Offenbar gilt A ∼ A, da die identische Abbildung idA eine bijektive Abbildung von A auf A ist. Falls f eine bijektive Abbildung von A auf B ist, haben wir mit f −1 nach Satz 1.4.3 eine Bijektion von B auf A. Gilt A ∼ B und B ∼ C, so existieren Bijektionen f und g mit f : A −→ B,
30
1 Mathematische Grundbegriffe
g : B −→ C. Wegen Satz 1.4.2, (2) ist f 2g eine bijektive Abbildung von A ¨ auf C, also A gleichm¨ achtig zu C. Folglich ist R eine Aquivalenzrelation auf M. Mit Hilfe der Gleichm¨ achtigkeitsrelation ∼ kann man eine Menge M von ¨ Mengen nach Satz 1.4.4 in Aquivalenzklassen zerlegen, d.h., man faßt alle gleichm¨ achtigen Mengen zu einer Klasse zusammen und sagt, sie haben die gleiche M¨ achtigkeit oder die gleiche Kardinalzahl. Unter der Kardinalzahl |A| der Menge A versteht man dabei die Gesamtheit“ aller zu A ” gleichm¨ achtigen Mengen. ( Gesamtheit“ m¨ ussen wir hier undefiniert lassen, ” da oben – wegen der bekannten Schwierigkeiten mit dem Mengenbegriff – M nicht als Menge aller Mengen gew¨ ahlt werden konnte.) Wir merken uns •
|A| = |B| (bzw. cardA = cardB) :⇐⇒ A ∼ B
und vereinbaren folgende Bezeichnungen: •
|∅| := 0,
•
|{1, 2, 3, . . . , n}| := n,
•
|N| := ℵ0 (ℵ ( Aleph“) ist der erste Buchstabe des hebr¨aischen Alphabets.), ”
•
|R| := c
(oder auch ℵ1 ).
Außerdem sei •
|A| ≤ |B| :⇐⇒ ∃ injektive Abbildung von A in B,
•
|A| < |B| :⇐⇒ (|A| ≤ |B| ∧ |A| = |B|).
Die oben beschriebene Relation ≤ ist auf einer Menge von Kardinalzahlen offenbar reflexiv und transitiv. Außerdem kann man zeigen, daß ≤ antisymmetrisch und linear ist (siehe dazu z.B. [Ale 67]). Es gilt damit: Satz 1.5.2 (ohne Beweis) Auf einer Menge von Kardinalzahlen ist die oben definierte Relation ≤ eine lineare Ordnung. Mit anderen Worten: F¨ ur je zwei beliebig gew¨ahlte Mengen A und B gilt entweder |A| = |B|, |A| < |B| oder |B| < |A|. Bemerkung (ohne Beweis) Mit den Kardinalzahlen kann man fast wenn man definiert: |A| + |B| |A| · |B| |A||B|
wie mit den gew¨ ohnlichen Zahlen umgehen, := |A ∪ B|, := |A × B|, := |AB |,
wobei o.B.d.A. A ∩ B = ∅ und AB die Menge aller Abbildungen von B in A bezeichnet. Es gilt dann n¨ amlich f¨ ur beliebige Kardinalzahlen a, b, c:
1.5 M¨ achtigkeiten, Kardinalzahlen
31
(a + b) + c = a + (b + c), a + b = b + a, a · (b + c) = a · b + a · c, (a · b) · c = a · (b · c), a · b = b · a, ab+c = ab · ac , (a · b)c = ac · bc , c (ab ) = ab·c , a ≤ b =⇒ a + c ≤ b + c, a ≤ b =⇒ (a · c ≤ b · c ∧ ac ≤ bc ∧ ca ≤ cb ).
Weiter mit Definitionen
Sei A eine Menge. Man sagt
•
A ist unendlich :⇐⇒ ∃B : B ⊂ A ∧ B ∼ A;
•
A ist endlich :⇐⇒ A ist nicht unendlich.
Beispiel Die Unendlichkeit der Menge N0 ergibt sich aus der Bijektion f := {(n, 2 · n) | n ∈ N0 } von N0 auf die echte Teilmenge der geraden Zahlen von N0 . Eine erste Unterscheidung zwischen verschiedenen Unendlichkeiten“ liefern ” die Definitionen
Sei A eine Menge. Dann heißt
•
A abz¨ ahlbar (unendlich) :⇐⇒ A ∼ N;
•
Au ahlbar :⇐⇒ A unendlich und nicht abz¨ahlbar. ¨ berabz¨
Satz 1.5.3 Seien A, Ai (i ∈ N) abz¨ahlbare Mengen und B eine endliche Menge. Dann sind folgende Mengen ebenfalls abz¨ahlbar: (a) A\B, A ∪ B;
(b) ∀n ∈ N\{1} : A1 × A2 × . . . × An ; (c) i∈I Ai (I ⊆ N).
¨ Beweis. (a): UA. (b): Wir beweisen die Behauptung hier nur f¨ ur n = 2. Den allgemeinen Beweis ¨ f¨ uhrt man mit Hilfe der vollst¨ andigen Induktion und sei den Lesern als UA empfohlen. Die Elemente von A1 × A2 kann man, falls A1 = {a1 , a2 , a3 , . . .} und A2 = {b1 , b2 , b3 , . . .}, wie folgt aufschreiben und abz¨ahlen:
32
1 Mathematische Grundbegriffe
(a1 , b1 )
(a(a1 , b3 ) (a1 , b4 ) 1 , b2 ) ... * 1 * = + + ... (a2 , b1 ) (a2 , b (a2 , b3 ) (a 2) 2 , b4 ) + + + ... (a3 , b3 ) (a3 , b4 ) (a3 , b1 ) (a3 , b 2) + + ... (a4 , b1 ) (a4 , b2 ) (a4 , b3 ) (a4 , b4 ) 1 + .. .. .. .. . . . .
(d.h., unsere bijektive Abbildung von A1 × A2 auf N sieht wie folgt aus: (a1 , b1 ) → 1, (a1 , b2 ) → 2, (a2 , b1 ) → 3, . . .). ¨ A.1.57). (c) beweist man ¨ahnlich wie (b) (UA Zwei Folgerungen aus Satz 1.5.3 sind zusammengefaßt im Satz 1.5.4 (a) Q ∼ N. (b) A abz¨ahlbar =⇒ {M ∈ P(A) | M ist endlich} abz¨ahlbar. Satz 1.5.5 Es sei A eine endliche oder abz¨ahlbare Menge, B eine unendliche Menge und C eine ¨ uberabz¨ahlbare Menge. Dann gilt: (a) B enth¨alt eine abz¨ahlbare Menge. (b) C\A ∼ C. (c) A ∪ B ∼ B. Beweis. (a): Da B unendlich ist, gibt es in B ein Element a1 . Offenbar ist B = {a1 }, womit es in B ein von a1 verschiedenes Element a2 gibt. Wegen B = {a1 , a2 }, existiert ein a3 ∈ B\{a1 , a2 }. Setzt man diesen Prozeß fort, erh¨ alt man die abz¨ ahlbare Teilmenge {ai | i ∈ N} von B. (b): O.B.d.A. sei A ⊆ C. Wegen C = A ∪ (C\A) und Satz 1.5.2 kann C\A weder endlich noch abz¨ ahlbar sein. Folglich ist C\A u ¨ berabz¨ahlbar und enth¨ alt nach (a) eine abz¨ ahlbare Teilmenge N . Sei M := (C\A)\N . Dann gilt C\A = N ∪ M und C = (A ∪ N ) ∪ M . Zwischen den abz¨ahlbaren Mengen N und A ∪ N gibt es eine bijektive Abbildung. Ordnet man außerdem jedem x ∈ M wieder x zu, hat man eine bijektive Abbildung zwischen C\A und C erhalten, womit C\A ∼ C gezeigt ist.
1.5 M¨ achtigkeiten, Kardinalzahlen
33
(c): Ist B abz¨ ahlbar, so gilt (c) nach Satz 1.5.3. Ist B u ¨ berabz¨ahlbar, so ist A ∪ B ebenfalls u ahlbar und mit Hilfe von (b) folgt (c) aus B = ¨ berabz¨ (A ∪ B)\(A \ B) ∼ A ∪ B. Satz 1.5.6 Die Menge (0, 1) (= {x ∈ R | 0 < x < 1}) ist nicht abz¨ahlbar. Beweis.
Sei x ∈ (0, 1). Dann ist x darstellbar als unendlicher Dezimalbruch x = 0.x1 x2 x3 x4 . . .
(∀i ∈ N : xi ∈ {0, 1, 2, 3, 4, 5, 6, 7, 8, 9})
ohne Neunerperiode. Angenommen, die Menge (0, 1) ist abz¨ahlbar. Dann lassen sich alle x ∈ (0, 1) wie folgt aufz¨ ahlen“: ” 0.a11 a12 a13 a14 . . . 0.a21 a22 a23 a24 . . . 0.a31 a32 a33 a34 . . . .. .
(∀i, j ∈ N : aij ∈ {0, 1, 2, . . . , 9})
Genauer, es gibt eine bijektive Abbildung f von N auf (0, 1) mit f (n) = onnen, daß (ganz egal wie wir oben 0.an1 an2 an3 . . ., n ∈ N. Wenn wir zeigen k¨ alle x ∈ (0, 1) angeordnet haben) mindestens eine reelle Zahl y ∈ (0, 1) in der Aufz¨ ahlung nicht enthalten ist, h¨ atten wir einen Widerspruch zur Annahme und unsere Behauptung w¨ are bewiesen. Ein solches y erh¨alt man z.B. wie folgt: y = 0.y1 y2 y3 y4 . . . , wobei 0 falls aii = 0, yi := (i ∈ N) 1 sonst. Die Zahl y ist von 0 verschieden, da die Zahlen 0, a0000... mit a ∈ {1, 2, ..., 9} ur in der oben angegebenen Aufz¨ ahlung vorkommen m¨ ussen, womit yi = 1 f¨ gewisse i gilt. Nach Konstruktion haben wir außerdem y = 0.ai1 ai2 ...aii .... f¨ ur alle i ∈ N. Also ist (0, 1) nicht abz¨ ahlbar. Die Idee des Beweises von Satz 1.5.6 l¨ aßt sich auch verwenden zur Begr¨ undung des folgenden Satz 1.5.7 Seien A und B Mengen mit A = ∅ und B enthalte mindestens zwei Elemente. Außerdem sei die Menge aller Abbildungen von A in B mit B A bezeichnet. Dann gilt |A| < |B A |.
(D.h., es existiert von A auf eine echte Teilmenge von B A eine bijektive Abbildung und A ist nicht zu B A gleichm¨achtig.)
Beweis. Da |B| ≥ 2, findet man in B zwei verschiedene Elemente α und β. Jedem a aus A kann man dann eineindeutig die Abbildung fa : A −→ B mit
34
1 Mathematische Grundbegriffe j α f (x) := β
f¨ ur x = a, sonst
zuordnen. Folglich gibt es eine bijektive Abbildung von A auf eine echte Teilmenge von B A . Angenommen, A ∼ B A , d.h., es existiert eine Bijektion ϕ : A −→ B A mit ϕ = {(a, ga ) | a ∈ A}. Wenn wir eine Abbildung g finden k¨ onnten, die von jeder atten wir einen Widerspruch zu |A| = |B A | Abbildung ga (a ∈ A) verschieden ist, h¨ erhalten und die Behauptung bewiesen. Man pr¨ uft nun leicht nach, daß z.B. g mit j α, falls gx (x) = β, (x ∈ A) g(x) := β, falls gx (x) = β die geforderten Eigenschaften besitzt.
Folgerungen aus dem obigen Satz sind zusammengefaßt im Satz 1.5.8 (a) F¨ ur beliebige nichtleere Mengen A gilt |A| < |P(A)|. (Also gibt es unendlich viele Kardinalzahlen!) (b) R ∼ P(N).
(c) R ∼ R × R.
(d) |N| = |Z| = |Q| < |R| = |C|. Beweis. (a) folgt aus Satz 1.5.7, da man jede Teilmenge T von A auf eindeutige Weise durch die Abbildung fT : A −→ {0, 1} mit j 1, falls x ∈ T, fT (x) := 0 sonst charakterisieren kann, womit |P(A)| = |{0, 1}A |. (b): Nachfolgend ist ein Beweis f¨ ur (b) kurz skizziert. Eine ausf¨ uhrliche Begr¨ undung ¨ (siehe dazu A.1.58 und f¨ ur die einzelnen Beweisschritte u ¨ berlege man sich als UA A.1.60–A.1.63). Bezeichne I die Menge aller reellen Zahlen x mit 0 < x < 1. Bereits gezeigt haben wir R ∼ I. Jede reelle Zahl x aus I l¨ aßt sich in der Form x = a1 ·
n X 1 1 1 1 ai · i ) + a2 · 2 + a3 · 3 + ... (= lim n→∞ 2 2 2 2 i=1
aßt sich x durch die Folge (a1 , a2 , a3 , ...) (a1 , a2 , ... ∈ {0, 1}) darstellen. Folglich l¨ charakterisieren. Diese Darstellung ist eindeutig, wenn (a1 , a2 , a3 , ...) keine 1-Periode besitzt. Faßt man nun alle Folgen (x1 , x2 , x3 , ...) mit xi ∈ {0, 1} (i ∈ N) zur Menge F und die Folgen aus F mit einer 1-Periode zur Menge E zusammen, so kann man unter Verwendung von Satz 1.5.5 leicht I ∼ F \E ∼ F ∼ P(N) zeigen, woraus (b) folgt. (c): W¨ ahlt man F wie oben, so ist z.B. die Abbildung g : F × F −→ F, ( (a1 , a2 , a3 , ...), (b1 , b2 , b3 , ...) ) → (a1 , b1 , a2 , b2 .a3 , b3 , ...)
1.6 Boolesche Funktionen und Pr¨ adikate
35
¨ u bijektiv, womit F ∼ F × F gilt. Als UA ¨ berlege man sich, daß hieraus (c) folgt. ¨ (d): UA.
Erw¨ ahnt sei noch der folgende Satz, von dem wir uns Spezialf¨alle bereits oben u berlegt haben und dessen Beweis man z.B. in [Ale 67] finden kann. ¨ Satz 1.5.9 (ohne Beweis) Seien A und B beliebig gew¨ahlte Mengen mit |A| ≤ |B| und B ist eine unendliche Menge. Dann gilt |A ∪ B| = |B| und, falls A = ∅, |A × B| = |B|. Eine abschließende Bemerkung: Oben wurde gezeigt, daß ℵ0 := |N| die kleinste Kardinalzahl einer unendlichen Menge ist. Außerdem wurde ℵ0 < ℵ1 := |R| bewiesen. Ist die Bezeichnung ℵ1 eigentlich gerechtfertig, d.h., gibt es keine Menge M mit |N| < |M | < |R|? Bereits Cantor vermutete 1884 in der sogenannte Kontinuumshy” pothese“, daß dies so ist, konnte es jedoch nicht beweisen. Die 1963 von P. J. Cohen 9 gefundene Antwort auf die Frage ist u ¨ berraschend: Die Kontinuumshypothese (bzw. die Negation der Kontinuumshypothese) l¨ aßt sich weder beweisen, noch widerlegen. Man sagt, sie ist unentscheidbar. Mehr dazu findet man z.B. in [Deu 99], wo man auch die Originalbeweise von Cohen und der von ihm benutzten Ergebnisse anderer Mathematiker nachlesen kann. Wer sich f¨ ur Unentscheidbarkeitsbeweise interessiert, dem sei [Rau 96] empfohlen. Verstehen kann man die dort angegebenen Beweise jedoch erst, nachdem man sich ausf¨ uhrlich mit Mathematischer Logik besch¨ aftigt hat. Da die Mathematische Logik ein wichtiger Bestandteil der Grundlagenmathematik bildet, wollen wir einige Anfangs¨ uberlegungen dieser Theorie im n¨ achsten Abschnitt behandeln.
1.6 Boolesche Funktionen und Pr¨ adikate Definitionen Es sei B := {0, 1}, n ∈ N, M eine nichtleere Menge und R ⊆ M n eine n-stellige Relation u ¨ber M . •
are Funktion) Eine n-stellige Boolesche Funktion10 (n-stellige bin¨ ist eine Abbildung f von B n in B, d.h., f : B n −→ B.
•
adikat u Eine Abbildung P : M n −→ B heißt n-stelliges Pr¨ ¨ ber M .
•
R und das n-stellige Pr¨ adikat P u aquivalent (bzw. indu¨ ber M heißen ¨ zieren einander), falls f¨ ur alle (a1 , ..., an ) ∈ M n gilt: (a1 , ..., an ) ∈ R ⇐⇒ P (a1 , ..., an ) = 1.
9
10
F¨ ur diese Leistung erhielt Paul Joseph Cohen (1934–2007) auf dem Internationalen Mathematikerkongreß 1966 in Moskau die Fields-Medaille, die eine Art Nobel-Preis f¨ ur Mathematiker darstellt, verliehen. Benannt nach George Boole (1815–1864), einem englischen Mathematiker und Philosophen. G. Boole ist einer der Begr¨ under der modernen mathematischen Logik.
36
1 Mathematische Grundbegriffe
Zur Kennzeichnung der Stelligkeit n von f bzw. P schreiben wir auch f (n) bzw. P (n) . Mit den Pr¨ adikaten besch¨ aftigen wir uns am Ende dieses Abschnitts. Zun¨achst jedoch Beispiele f¨ ur Boolesche Funktionen: F¨ ur n = 1 gibt es genau vier verschiedene Boolesche Funktionen, die in folgender Tabelle definiert sind: x c0 (x) c1 (x) e(x) non(x) 0 0 1 0 1 1 0 1 1 0 . Anstelle von non(x) schreiben wir auch x (oder ¬x). F¨ ur n = 2 gibt es 16 verschiedene Boolesche Funktionen, von denen 5 (∧, ∨, +, =⇒, ⇐⇒) in der folgende Tabelle definiert sind. Dabei sei ◦(x, y) := x ◦ y f¨ ur ◦ ∈ {∧, ∨, +, =⇒, ⇐⇒} vereinbart. x 0 0 1 1
y x ∧ y x ∨ y x + y x =⇒ y x ⇐⇒ y 0 0 0 0 1 1 1 0 1 1 1 0 0 0 1 1 0 0 1 1 1 0 1 1 .
Die Erkl¨ arung f¨ ur die verwendeten Symbole findet man weiter unten. Anstelle von x∧y schreiben wir auch x·y oder kurz xy. Allgemein lassen sich Booleschen Funktionen f (n) durch Tabellen der Form x1 x2 0 0 0 0 .. .. . . a1 a2 .. .. . . .. 1 .
. . . xn ... 0 ... 1 . . . . ..
f (x1 , x2 , . . . , xn ) f (0, 0, . . . , 0) f (0, 0, . . . , 1) .. .
... ...
an .. .
f (a1 , a2 , . . . , an ) .. .
...
1
f (1, 1, . . . , 1)
(jedenfalls theoretisch) angeben. Effektivere Beschreibungen folgen weiter unten. Anwendungen finden bzw. untersucht werden die Booleschen Funktionen vorrangig in der • •
Aussagenlogik und bei der mathematischen Beschreibung von Schaltungen bzw. den Bauelementen von Computern.
Wir befassen uns hier nur mit einigen Eigenschaften der Booleschen Funktionen, die sich aus ihren Anwendungen in der Aussagenlogik ergeben.
1.6 Boolesche Funktionen und Pr¨ adikate
37
Aussagen und Aussagenverbindungen Definition Eine Aussage ist ein Satz (einer nat¨ urlichen oder k¨ unstlichen Sprache), von dem es sinnvoll ist zu fragen, ob er wahr (Bezeichnung: 1) oder falsch (Bezeichnung: 0) ist. Wir nehmen dabei an, daß jede Aussage entweder wahr oder falsch ist (sogenanntes Prinzip vom ausgeschlossenen Dritten“). ” Beispiele f¨ ur Aussagen sind: • • •
2 + 2 = 5. Rostock liegt an der Warnow. Im Weltall gibt es außerirdische Lebewesen (Vulkanier, Klingonen, Romulaner, Cardassianer, . . . ).
Keine Aussagen sind z.B.: • • • •
Zwei H¨ uhner auf dem Weg nach vorgestern. Alles was ich sage, ist falsch. Heute ist sch¨ ones Wetter. Seid leise!
Aussagen werden zumeist mit großen lateinischen Buchstaben A, B, . . . bezeichnet. Anstelle von A sei eine beliebige Aussage“ sagt man A sei eine ” ” Aussagenvariable“. Eine Aussagenvariable nimmt also die Werte 0 und 1 an. Aussagen (S¨ atze) werden in der Umgangssprache (u.a. durch Bindew¨orter wie und“, oder“, wenn–dann“,. . . ) auf vielfache Weise verkn¨ upft. Das Ergeb” ” ” nis dieser Verkn¨ upfung liefert in der Regel wieder eine Aussage, deren Wert (0 oder 1) abh¨ angig ist von den der verkn¨ upften Einzelaussagen. Im Rahmen der Aussagenlogik werden ein Teil der umgangssprachlichen Verkn¨ upfungen modelliert, in Teilen sogar erst pr¨ azise formuliert. Da wir bei Aussagen von ihrem Inhalt abstrahieren, uns also nur ihr sogenannter Wahrheitswert 0 oder 1 interessiert, sind Aussagenverbindungen mehrstellige Funktionen u ¨ ber {0, 1}, also unsere oben definierten Booleschen Funktionen (auch Wahrheitswertfunktionen oder Funktionen der zweiwertigen Logik genannt). Deutungen f¨ ur einige der oben in Tabellen definierten Booleschen Funktionen sind dann: • • •
•
Negation der Aussage A : A ( nicht A“). ” A ist genau dann wahr, wenn A falsch ist. Konjunktion der Aussagen A, B : A ∧ B ( A und B“). ” A ∧ B ist genau dann wahr, wenn A und B wahr sind. Disjunktion der Aussagen A, B : A ∨ B ( A oder B“). ” A ∨ B ist genau dann wahr, wenn A oder B oder A und B den Wert 1 haben. ∨ entspricht also dem umgangssprachlichen oder“, sofern dieses im nicht” ausschließenden Sinne verwendet wird. Kontravalenz: A + B ( entweder A oder B“). ” A + B ist genau dann wahr, wenn entweder A oder B wahr ist.
38
• •
1 Mathematische Grundbegriffe
¨ Aquivalenz: A ⇐⇒ B ( A genau dann, wenn B“). ” A ⇐⇒ B ist genau dann wahr, wenn A und B denselben Wahrheitswert haben. Implikation: A =⇒ B ( Aus A folgt B“; Wenn A, so B“). ” ” A =⇒ B ist genau dann falsch, wenn A den Wert 1 und B den Wert 0 annimmt. A =⇒ B ist also immer wahr, wenn A falsch ist. Umgangssprachlich hat dies keine Bedeutung, weil man Aussagen wie Wenn der Elefant fliegen ” kann, dann ist der Schnee weiß.“ oder Wenn 2 + 2 = 7, dann ist 2 keine ” Primzahl.“ als sinnlos ansieht. Da wir jedoch vom konkreten Inhalt der Aussagen A, B abstrahieren, sind auch Festlegungen f¨ ur 0 =⇒ 0 und 0 =⇒ 1 zu treffen. Daß obige Festlegungen sinnvoll sind, sieht man z.B. anhand der Bildung von A =⇒ B = A ∧ B.
Mit Hilfe eines Alphabets f¨ ur Bezeichnungen der Aussagenvariablen, 0, 1, Klammern und den oben eingef¨ uhrten Zeichen , ∧, ∨, ⇐⇒, =⇒, + lassen sich kompliziertere Aussagen (sogenannte Formeln (Ausdr¨ ucke) der Aussagenalgebra) aufbauen. Z.B. ((A ∧ B) =⇒ (B ∨ (C =⇒ A))). Ausf¨ uhrlich behandeln wir das nachfolgend. Beschreibung von Booleschen Funktionen mittels Boolescher Terme (Formeln, Ausdr¨ ucke) Da eine Tabellendarstellung Boolescher Funktionen nur sehr eingeschr¨ankt verwendbar ist, besteht ein naheliegender Gedanke darin, sie durch Formeln zu beschreiben. Definition (a) Die Konstanten 0, 1 sowie die Variablen x, y, z, . . . , x1 , x2 , x3 , . . . sind f¨ ur sich genommen Boolesche Terme (Formeln, Ausdr¨ ucke). (b) Ist A ein Boolescher Term, so auch A (bzw. (¬A)). (c) Sind A und B Boolesche Terme, so auch (A ∧ B), (A ∨ B), (A =⇒ B), (A ⇐⇒ B), (A + B). (d) Jeder Boolesche Term entsteht, indem die Regeln (b) und (c) endlich oft angewendet werden, wobei die Booleschen Terme aus Regel (a) als Ausgangspunkte dienen. Nachfolgend nennen wir Boolesche Terme kurz nur Terme. Bei den Termangaben lassen wir außerdem die nach der obigen Bildungsvorschrift entstehenden Außenklammern weg. Den Termen kann man Boolesche Funktionen zuordnen: Sei A ein Term, in dem nur Variable aus der Menge {x1 , x2 , . . . , xn } vorkommen.
1.6 Boolesche Funktionen und Pr¨ adikate
39
Mittels f (x1 , x2 , . . . , xn ) := A ist dann eine n-stellige Boolesche Funktion definierbar, wobei obige Vorschrift bedeutet, daß bei konkreter Belegung der xi (i = 1, 2, . . . , n) mit 0 oder 1 der zugeh¨ orige Funktionswert sich anhand der Formel A errechnet. Man beachte, daß jedem Term unendlich viele Boolesche Funktionen zugeordnet werden k¨ onnen. Außerdem k¨ onnen verschiedene Terme gleiche Funktionen beschreiben. Interessiert sind wir nat¨ urlich nur an einfachen Termen. Zum Auffinden m¨ oglichst einfacher Beschreibungen (Terme) Boolescher Funktionen werden wir uns anschließend einige Regeln des Umbauens“ von Termen zusammen” stellen, die es uns erm¨ oglichen werden, aus komplizierten Termen solche etwas u ¨ berschaubarer Struktur abzuleiten. Zun¨ achst soll jedoch die Gleichheit von Termen definiert werden. aquivalent, gleichwertig; BeDefinition Terme T1 , T2 heißen gleich (¨ zeichnung: T1 = T2 ), wenn bei jeder Belegung der in T1 und T2 vorkommenden Aussagenvariablen Ai mit Werten aus {0, 1} T1 und T2 denselben Wahrheitswert annehmen. Beispiele f¨ ur ¨ aquivalente Formeln sind im n¨achsten Satz angegeben. Satz 1.6.1 Es gilt: (a) ∀◦ ∈ {∨, ∧, ⇐⇒, +} : x ◦ (y ◦ z) = (x ◦ y) ◦ z; (b) x ∨ x = x, x ∧ x = x, x ⇐⇒ x = 1, x =⇒ x = 1, x + x = 0, x ∨ 0 = x, x ∧ 1 = x, x ∨ 1 = 1, x ∧ 0 = 0; (c) ∀◦ ∈ {∨, ∧, ⇐⇒, +} : x ◦ y = y ◦ x; (d) x ∧ x = 0, x ∨ x = 1, x = x, x ∨ y = x ∧ y, x ∧ y = x ∨ y; (e) x =⇒ y = x ∧ y; (f ) x ∧ (y ∨ z) = (x ∧ y) ∨ (x ∧ z), x ∨ (y ∧ z) = (x ∨ y) ∧ (x ∨ z); (g) x ∧ (x ∨ y) = x, x ∨ (x ∧ y) = x. ¨ Beweis. UA. Mit Hilfe der im Satz 1.6.1 angegebenen Identit¨aten lassen sich Boolesche Terme vereinfachen (sogenannte algebraische Methode“). ” Beispiele (1.) (((xy ∨ xz) ∨ (x(yz))) ∨ y) ∨ z Wegen Satz 1.6.1 k¨ onnen wir auf einen Teil der Klammern in diesem Term verzichten, wenn vereinbart wird, daß · (= ∧) st¨arker bindet als ∨: xy ∨ xz ∨ xyz ∨ y ∨ z. Zusammenfassungen sind dann (nach Satz 1.6.1) wie folgt m¨oglich:
40
1 Mathematische Grundbegriffe
xy ∨ xz ∨ xyz ∨ y ∨ z = y ∨ z Q Q Q Q @ Q @ Q Q @ Q Q Q y z z
(2.) (x ∨ y)(x ∨ z) = (xx ∨ xz ∨ yx ∨ yz) = (x ∨ yz) = x(y ∨ z) = xy ∨ x z. (3.) ((x ∨ x) ∧ y) ∨ y = (1 ∧ y) ∨ y = 1. Definition Ein Boolescher Term heißt Tautologie (oder allgemeing¨ ultiger Ausdruck), wenn er zu 1 a quivalent ist. ¨ Tautologien liefern sogenannte Gesetze der Aussagenalgebra, d.h., jede Tautologie ist das Schema einer Schar von Aussagen, die auf Grund ihrer logisch sprachlichen Struktur, also unabh¨ angig vom konkreten Inhalt, wahr sind. Das systematische Aufsuchen derartiger Schemata geh¨ort zu den ¨altesten Aufgaben der Logik. Terme F1 , F2 sind u ¨ brigens gleich, wenn F1 ⇐⇒ F2 eine Tautologie ist. L¨ aßt sich nun jede Boolesche Funktion mit Hilfe eines Terms beschreiben? Antwort wird Satz 1.6.2 geben. Zun¨ achst jedoch ein Beispiel: F¨ ur die durch die nachfolgende Tabelle definierte dreistellige Funktion f gilt f (x, y, z) = (xyz) ∨ (xy z) ∨ (xyz). x 0 0 0 0 1 1 1 1
y 0 0 1 1 0 0 1 1
z f (x, y, z) 0 0 1 0 0 1 1 0 0 1 1 0 0 0 1 1
Jede der in der Formel f¨ ur f auftretende Konjunktionen realisiert“ dabei eine ” 1 von den Funktionswerten von f . Unter Verwendung der Schreibweise x f¨ ur α = 0, xα := (α ∈ {0, 1}) x f¨ ur α = 1 l¨ aßt sich f auch wie folgt charakterisieren: f (x, y, z) = (x0 y 1 z 0 ) ∨ (x1 y 0 z 0 ) ∨ (x1 y 1 z 1 ). Die so erhaltene Darstellung von f nennt man disjunktive Normalform von f . Allgemein gilt:
1.6 Boolesche Funktionen und Pr¨ adikate
41
Satz 1.6.2 Jede n-stellige Boolesche Funktion f l¨aßt sich mittels der sogenannten disjunktiven Normalform (Bezeichnung: DNF) beschreiben:
f (x1 , . . . , xn ) = f (a1 , . . . , an ) · xa1 1 · xa2 2 · . . . · xann , (a1 ,...,an )∈{0,1}n
wobei
α
x :=
x x
f¨ ur α = 0, (α ∈ {0, 1}) f¨ ur α = 1
bzw., falls f nicht nur den Wert 0 annimmt,
xa1 1 · xa2 2 · . . . · xann . f (x1 , . . . , xn ) = (a1 ,...,an )∈{0,1}n f (a1 ,...,an )=1
(Obige Formeln besagen, daß f¨ ur jedes Tupel (a1 , . . . , an ) ∈ {0, 1}n die Kon” junktion“ f (a1 , . . . , an ) ∧ xa1 1 ∧ . . . ∧ xann bzw. xa1 1 ∧ . . . ∧ xann aufgeschrieben wird. Anschließend werden dann diese Konjunktionen durch ∨ miteinander verkn¨ upft. Auf das Setzen einer Vielzahl von Klammern kann dabei wegen Satz 1.6.1 verzichtet werden (siehe dazu auch Kapitel 2). Es sei bemerkt, daß die disjunktive Normalform nur eine von vielen M¨oglichkeiten ist, s¨ amtliche Booleschen Funktionen durch eine gewisse Formelstruktur zu beschreiben. Oft liefert die disjunktive Normalform eine zu komplizierte Beschreibung einer Booleschen Funktion (z.B. gilt x ∨ y = xy ∨ xy ∨ xy). Wie findet man aber (ausgehend von einer disjunktiven Normalform) eine verk¨ urzte Darstellung“ (d.h., weniger Konjunktionen und innerhalb einer ” Konjunktion m¨ oglichst wenig Variable) f¨ ur eine gegebene Boolesche Funktion? Nachfolgend soll anhand eines Beispiels ein m¨ ogliches Verfahren (genauer: das Quine-McCluskey-Verfahren) vorgestellt werden: Sei x 0 0 0 0 1 1 1 1
y 0 0 1 1 0 0 1 1
z f (x, y, z) 0 1 1 1 0 1 1 0 0 0 1 0 0 1 1 1 .
42
1 Mathematische Grundbegriffe
Die disjunktive Normalform xyz ∨ xyz ∨ xyz ∨ x yz ∨ x y z dieser Funktion l¨ aßt sich dann mit Hilfe des folgenden Verfahrens verk¨ urzen“: ” 1. Schritt: Durch systematisches Anwenden von xy ∨ xy = x, xy = yx, x∨x = x fasse man m¨ oglichst viele Konjunktionen zusammen. Ausgangspunkt dieser Zusammenfassungen ist die 1. geordnete Liste der Konjunktionen, in der die Konjunktionen aus der disjunktiven Normalform nach der Anzahl der auftretenden Negationszeichen geordnet sind: Nummer der Konjunktionen
1. 2. 3. 4. 5.
xyz xyz xyz x yz xyz
Zusammenfassungen mittels der Regel xy∨xy = x (unter Beachtung von xy = yx) sind dann nur bei Konjunktionen m¨ oglich, die zu benachbarten Gruppen“ ” in obiger Liste geh¨ oren. Man erh¨ alt dann folgende 1. Zusammenfassung: Nummern der zusammenErgebnis der gefaßten Konjunktionen Zusammenfassungen
1., 2., 3., 4.,
2. 3. 5. 5.
xy yz xz x y.
Sortiert man nun die erhaltenen Konjunktionen nach gleichen Variablen und anschließend nach der Anzahl der auftretenden Negationszeichen, so erh¨alt man die 2. geordnete Liste der Konjunktionen: Nr. der Konj.
1. 2. 3. 4.
xy xy xz yz
Da keine weitere Zusammenfassung mehr m¨ oglich ist, sind wir mit Schritt 1 fertig. Als erste verk¨ urzte Darstellung f¨ ur f haben wir damit f (x, y, z) = xy ∨ x y ∨ x z ∨ yz erhalten.
1.6 Boolesche Funktionen und Pr¨ adikate
43
2. Schritt: Man lasse diejenigen Konjunktionen in der durch Schritt 1 erhaltenen Darstellung f¨ ur f weg, die u ussig sind. ¨berfl¨ Anhand der Tabelle x 0 0 0 0 1 1 1 1
y 0 0 1 1 0 0 1 1
z xy x y x z yz f 0 0 1 1 0 1 1 0 1 0 0 1 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 1 1 1 1 0 0 0 1
sieht man, daß z.B. yz u ussig ist. Wir erhalten zum Abschluß unseres ¨ berfl¨ Verfahrens damit die folgende minimale DNF: f (x, y, z) = xy ∨ x y ∨ x z. Es sei noch bemerkt, daß man sich die obige verk¨ urzte Darstellung sowie einige andere M¨ oglichkeiten anhand folgender geometrischen Darstellung der dreistelligen Funktion f u ¨berlegen kann: urfels wie unten angegeben Man deute die Tupel (x, y, z) ∈ {0, 1}3 als Ecken eines W¨ und kennzeichne diejenigen Ecken, die zu den Tupeln geh¨ oren, auf denen f den Wert 1 annimmt: xy (1,1,1) t
@ ZZ @ R @ Z Z (0,1,1) (1,1,0) Zq t q Z ZZ (1,0,1) Z Z Z Z q Zt ZZt (0,0,1) (1,0,0) ZZ (0,1,0) yz Z I Z @ Zt @ xy xz
(0,0,0)
Man sieht nun leicht, daß Konjuktionen der Form ua (u ∈ {x, y, z}) Seitenfl¨ achen, Konjunktionen der Form ua v b (u, v ∈ {x, y, z}) Seitenkanten und Konjunktionen der Bauart xa y b z c Eckpunkte des W¨ urfels charakterisieren. Folglich l¨ aßt sich f auch durch die Formel xy ∨ yz ∨ x y beschreiben.
44
1 Mathematische Grundbegriffe
Zu Booleschen Funktionen abschließend noch eine Bemerkung (ohne Beweis): Ausgangspunkt obiger Darstellung Boolescher Funktionen waren die Konjunktion, die Disjunktion und die Negation, mit deren Hilfe wir alle anderen Booleschen Funktionen darstellen konnten. Muß dies unbedingt sein? K¨ onnte man nicht auch von beliebigen Funktionen f , g, h, . . . ausgehen und versuchen, durch Ineinandereinsetzen dieser Funktionen sowie Umordnen und Identifizieren von Variablen alle anderen Booleschen Funktionen (etwa in der Art f (g(. . .), h(. . .), . . .)) auszudr¨ ucken? Welche Eigenschaften m¨ ussen dann solche Funktionen besitzen, falls dies gelingt? Bei der Beantwortung dieser Fragen sind mehrstellige Relationen und der Begriff des Bewahrens von Relationen durch Funktionen hilfreich: Man sagt, eine n-stellige Funktion f bewahrt die h-stellige Relation R (h ∈ N), wenn f¨ ur beliebige (a1 , a2 , . . . , ah ), (b1 , b2 , . . . , bh ), (c1 , c2 , . . . , ch ), . . . ∈ R stets (f (a1 ,b1 ,c1 ,. . .), f (a2 ,b2 ,c2 ,. . .), . . ., f (ah ,bh ,ch ,. . .)) ∈ R gilt. Beispiel Die durch die Tabelle x 0 0 1 1
y f (x, y) 0 1 1 0 0 0 1 1
definierte Funktion f bewahrt die (einstellige) Relation {1}, jedoch nicht die (zweistellige) Relation {(0, 1), (1, 0)}, da (f (0, 0), f (1, 1)) = (1, 1) ∈ / {(0, 1), (1, 0)}. Es gilt dann: Eine beliebige Boolesche Funktion ist genau dann mittels Superposition (Ineinandereinsetzen von Funktionen in Funktionen, Umordnen der Variablen, Identifizieren von Variablen) aus Elementen einer Menge A von Booleschen Funktionen erzeugbar, wenn zu jeder der 5 Relationen R0 R1 R2 R3 R4
:= {0}, := {1}, := {(0, 1), (1, 0)}, := {(0, 0), (0, 1), (1, 1)}, := {(a, b, c, d) ∈ {0, 1}4 | a + b = c + d (mod 2)} = {(0, 0, 0, 0), (0, 0, 1, 1), (0, 1, 0, 1), (0, 1, 1, 0), (1, 1, 1, 1), (1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)} 11
in A eine Funktion existiert, die diese Relation nicht bewahrt. Ausf¨ uhrliche Informationen zu diesem von E. L. Post aus dem Jahre 1920 stammenden sogenannten Vollst¨ andigkeitskriterium f¨ ur die zweiwertige Logik entnehme man Band 2, [P¨ os-K 79] oder [Jab-L 80]. Hier soll dieses Kriterium nur noch anhand eines Beispiels erl¨ autert werden: Sei A = {f } und f durch die Tabelle 11
Nur sogenannte lineare Funktionen, das sind Funktionen f (n) , die durch Formeln der Gestalt f (x1 , x2 , . . . , xn ) = a0 + a1 · x1 + . . . + an · xn (mod 2) beschrieben werden k¨ onnen, bewahren diese Relation.
1.6 Boolesche Funktionen und Pr¨ adikate x 0 0 1 1
45
y f (x, y) 0 1 1 0 0 0 1 0
definiert. Offenbar bewahrt f nicht R0 und R1 . Wegen (f (0, 1), f (1, 0)) = (0, 0) bewahrt f nicht R2 und wegen (f (0, 0), f (0, 1)) = (1, 0) nicht R3 . Aus (f (0, 0), f (0, 1), f (1, 0), f (1, 1)) = (1, 0, 0, 0) folgt außerdem, daß f nicht R4 bewahrt. Damit lassen sich durch f mittels Superposition alle anderen Booleschen Funktionen erzeugen. Diese Eigenschaft von f kann man sich aber auch auf folgende Weise u ¨ berlegen: f (x, y) = x ∧ y, f (x, x) = x, f (f (x, x), f (y, y)) = x ∧ y f (f (x, y), f (x, y)) = x ∨ y,
und
womit nach Satz 1.6.2 aus f alle anderen Booleschen Funktionen durch Superposition erzeugbar sind. Der Rest dieses Abschnitts besch¨ aftigt sich mit einer Anwendung des eingangs definierten Begriffs Pr¨ adikat, indem eine Einf¨ uhrung in die Pr¨ adikatenlogik erster Stufe gegeben wird.12 Falls es gelingt, einen Sachverhalt, dessen Wahrheitsgehalt zu u ufen ist, durch ¨berpr¨ einen Booleschen Term zu beschreiben, hatten wir oben eine einfache Methode erhalten, durch formales Rechnen dem Booleschen Term den Wert 0 oder 1 zuzuordnen. Wir wollen diese Methode ausdehnen auf Aussagen u ¨ ber Relationen und Operationen, die u achst ein Beispiel: Es ¨ ber einer Menge M definiert sind. Zun¨ sei M := {0, 1, 2}, R1 := {(x, y) ∈ M 2 | x = y}, R2 := {(0, 1), (0, 2), (1, 2)} und f (x, y) := x + y (mod 3) f¨ ur alle x, y ∈ M . Wir schreiben x < y, falls (x, y) ∈ R2 . Die (offenbar falsche) Aussage A: Falls f (0, 2) = 2 und 0 < 2 gilt, ist 2 < 2, 12
Es ist zu empfehlen, sich diesen Abschnitt nach dem Lesen des zweiten Kapitels nochmals anzusehen. Außerdem sollte man sich nicht durch die vielen Formeln abschrecken lassen, sondern sich vielmehr klarmachen, daß mit der Formelsprache vertraute Dinge exakt definiert oder in eine Sprache u ¨ bersetzt werden, die Grundlage von Programmierungen sein k¨ onnen.
46
1 Mathematische Grundbegriffe
ist zwar unter Verwendung unserer im Abschnitt 1.1 vereinbarten Symbole auch in der Form (f (0, 2) = 2 ∧ (0 < 2)) =⇒ (2 < 2) (1.2)
aufschreibbar, jedoch k¨ onnen wir die Zeichen ∧ und =⇒ nicht als Boolesche Funktionen interpretieren, da f (0, 2) = 2, 0 < 2 und 2 < 2 nicht 0 oder 1 sind. Ordnet adikat Pi zu, l¨ aßt man jedoch der Relation Ri (i = 1, 2) das von Ri induzierte Pr¨ sich (1.2) wie folgt aufschreiben: ϕ := (P1 (f (0, 2), 2) ∧ P2 (0, 2)) =⇒ P2 (2, 2),
(1.3)
wobei x 0 0 0 1 1 1 2 2 2
y P1 (x, y) P2 (x, y) 0 1 0 1 0 1 2 0 1 0 0 0 1 1 0 2 0 1 0 0 0 1 0 0 2 1 0
Wegen (P1 (f (0, 2), 2) ∧ P2 (0, 2)) =⇒ P2 (2, 2) | {z } | {z } | {z } =1
=1
(1.4)
=0
gilt ϕ = 0, d.h., die Aussage A ist falsch und wir konnten dies unter Verwendung der Booleschen Funktionen ∧ und =⇒ ausrechnen. Wir betrachten als n¨ achstes die Aussage B: F¨ ur alle x, y, z ∈ M gilt: Falls f (x, y) = z und x < y, ist y < z, die man auch in der Form ψ := ∀x ∈ M ∀y ∈ M ∀z ∈ M (P1 (f (x, y), z) ∧ P2 (x, y)) =⇒ P2 (y, z))
(1.5)
aufschreiben kann. Legt man fest, daß eine Formel der Form ∀x ∈ M ∀y ∈ M ∀z ∈ M ϕ(x, y, z) genau dann den Wert 1 annimmt, wenn ϕ(a, b, c) = 1 f¨ ur alle (a, b, c) ∈ M 3 gilt, hat ψ wegen ϕ(0, 2, 2) den Wert 0. Wir verallgemeinern obiges Beispiel, indem wir zun¨ achst festlegen, welche Art von Formeln wir betrachten wollen, die aus vorgegebenen Zeichen nach gewissen Regeln adikatenlogik fest. Danach wird gebildet werden, d.h., wir legen die Syntax13 der Pr¨ definiert, wie man diesen Formeln einen Wahrheitswert (wie u ¨ blich mit 0 oder 1 bezeichnet) zuordnen kann, wenn man den verwendeten Zeichen einen gewissen Sinn adikatenlogik. gibt, d.h., wir behandeln die Semantik14 der Pr¨ 13
14
Allgemein versteht man unter Syntax die Lehre vom Aufbau der Wortverbindungen und S¨ atze einer Sprache. Unter Semantik verstehen wir hier die formale Semantik bzw. die Bedeutungslehre, die sich mit dem Sinn und der Bedeutung von Zeichen befaßt.
1.6 Boolesche Funktionen und Pr¨ adikate
47
Um die Formeln der Pr¨ adikatenlogik erster Stufe zu definieren, w¨ ahlen wir zun¨ achst zwei Indexmengen I und J, wobei I = ∅ m¨ oglich ist. Jedem i ∈ I und jedem j ∈ J ahlten Zahlen ordnen wir dann ein gewisses ni ∈ N0 bzw. mj ∈ N zu. Die so gew¨ fassen wir zu einer sogenannten Signatur zusammen: δ := ((ni )i∈I , (mj )j∈J ). Z.B. I := {1, 2}, J := {1, 2, 3} und δ := ((0, 2), (1, 2, 2)), d.h., n1 = 0, n2 = 2, m1 = 1, m2 = m3 = 2. Die Indexmengen I und J sowie die Signatur δ dienen dazu, Operations- und Relationssymbole zu unterscheiden und jedem Symbol eine gewisse Stelligkeit zuzuordnen. Außerdem ben¨ otigen wir: • • • • • •
die Menge V ar := {x1 , x2 , x3 , ...} der Variablen; die Menge F := {fini | i ∈ I} der Operationssymbole, wobei ni die Stelligkeit des Operationssymbols fini angibt; die Menge F(n) aller n-stelligen Operationssymbole aus F, n ∈ N0 ; m adikatenymbole, wobei mj die Stelligkeit die Menge P := {Pj j | j ∈ J} der Pr¨ mj des Pr¨ adikats Pj angibt; die Menge der Junktoren J := {∧, ∨, ¬, =⇒, ⇐⇒, ∃, ∀} 15 (∃ nennt man Existenzquantor und ∀ heißt Allquantor); J0 := {∧, ∨, ¬, =⇒, ⇐⇒}; die Menge der Klammersymbole {(, )}.
Falls sich die Stelligkeiten der Operations- und Pr¨ adikatensymbole aus dem Zusammenhang ergeben, lassen wird die entsprechenden Indizes weg. Mit Hilfe von V ar und {fini | i ∈ I} k¨ onnen wir die Menge T (V ar) aller Terme als kleinste Menge mit den folgenden zwei Eigenschaften bilden: (1) V ar ∪ F(0) ⊆ T (X), ort auch f (t1 , ..., tn ) (2) Falls f ∈ F(n) (n ≥ 1) und {t1 , ..., tn } ⊆ T (X), dann geh¨ zu T (V ar). Beispiel
Es sei I := {1}, n1 = 1 und f := f1 . Dann gilt [ {xi , f (xi ), f (f (xi )), f (f (f (xi ))), ...}. T (X) = i∈N
Die Menge F ORM sei die kleinste Menge X mit den folgenden vier Eigenschaften: ur alle j ∈ J und alle t1 , ..., tmj ∈ T erm; (1) Pj (t1 , ..., tmj ) ∈ X f¨ (Pj (t1 , ..., tmj ) heißt Atom); (2) falls α, β ∈ X , dann (α ◦ β) ∈ X f¨ ur alle ◦ ∈ J0 = {∧, ∨, =⇒, ⇐⇒}; (3) falls α ∈ X , dann (¬α) ∈ X ; ur alle k ∈ N. (4) falls α ∈ X , dann (∃xk α) ∈ X und (∀xk α) ∈ X f¨ 15
Die Auswahl von Zeichen, die wir bereits bei der Definition gewisser Boolescher Funktionen benutzt haben, kann auch anders gew¨ ahlt werden. In der Literatur u ugen von zwei nullstelligen ¨ blich sind das Weglassen von ⇐⇒ und das Hinzuf¨ Zeichen.
48
1 Mathematische Grundbegriffe
Die Menge F ORM heißt Menge aller Formeln der Pr¨ adikatenlogik erster Stufe der Signatur δ.16 Beispiele Es sei I := {1, 2, 3, 4}, J := {1, 2, 3} und δ := ((0, 3, 2, 2), (1, 2, 2)). Elemente aus F ORM sind dann u.a. (∃x2 P3 (x5 , f1 )), P2 (f2 (x3 , x1 , f4 (x2 , x2 )), x1 ) und P1 (f2 (x1 , x2 , x3 )), (P1 (x5 ) ∨ (∀x3 P3 (f4 (f1 , x7 )))). Keine Formeln aus F ORM sind z.B. P1 (P2 (x1 , x2 )) und alle Terme. ort nicht zu F ORM , da durch die Signatur δ f¨ ur P1 die Stelligkeit P1 (x1 , x2 , x3 ) geh¨ 1 festgelegt wurde. Als vereinfachende Schreibweise vereinbaren wir: x, y, z ∈ V ar, f, g, h sind Operationssymbole und P, Q, R sind Pr¨ adikatensymbole (mit in Beispielen noch festzulegenden Stelligkeiten). Außerdem lassen wir die Außenklammern bei den Formeln weg. Man beachte, daß pr¨ adikatenlogische Formeln mit einem All- oder Existenzquantor keine Zeichen der Gestalt xk ∈ M enthalten. Dies wurde weggelassen, weil bei der (unten zu findenden) inhaltlichen Interpretation solcher Formeln s¨ amtliche Variablen xk nur Werte aus ein- und derselben Menge annehmen. Eine Formel α ∈ F ORM , die bei einer m¨ oglichen rekursiven Bildung der Formel β ∈ F ORM vorkommt, heißt Teilformel von β.
F¨ ur jedes t ∈ T (V ar) bezeichne V ar(t) die Menge aller Elemente aus V ar, die in t auftreten. F¨ ur ϕ ∈ F ORM ist die Menge V ar(ϕ) aller Variablen von ϕ definiert durch • • •
V ar(Pj (t1 , ..., tmj )) := V ar(t1 ) ∪ ... ∪ V ar(tmj ), V ar(¬α) := V ar(α) und V ar(α ◦ β) := V ar(α) ◦ V ar(β) f¨ ur alle ◦ ∈ J0 , V ar(∃xk α) = V ar(∀xk α) := V ar(α) ∪ {xk }
(α, β ∈ F ORM ). Die Menge f r(ϕ) der freien Variablen von ϕ ist definiert durch • • •
f r(ϕ) := V ar(ϕ), falls ϕ ein Atom ist; f r(¬α) := f r(α) und f r(α ◦ β) := f r(α) ∪ f r(β) f¨ ur alle ◦ ∈ J0 , f r(∀xk α) = f r(∃xk α) := f r(α)\{xk }
(α, β ∈ F ORM ). Die Menge bd(ϕ) der gebundenen Variablen von ϕ ist definiert durch • • •
bd(ϕ) := ∅, falls ϕ ein Atom ist; bd(¬α) := bd(α) und bd(α ◦ β) := bd(α) ∪ bd(β) f¨ ur alle ◦ ∈ J0 , bd(∀xk α) = bd(∃xk α) := bd(α) ∪ {xk }
(α, β ∈ F ORM ). Beispiel F¨ ur die Formel ϕ := ((∃x1 P2 (x2 , x3 )) ∨ (∀x2 P1 (x2 ))) gilt V ar(ϕ) = {x1 , x2 , x3 }, f r(ϕ) = {x2 , x3 } und bd(ϕ) = {x1 , x2 }. Eine Formel ϕ ∈ F ORM heißt offene Formel, wenn bd(ϕ) = ∅. ϕ ist ein Satz oder ist abgeschlossen, wenn f r(ϕ) = ∅. Offensichtlich gilt V ar(ϕ) = f r(ϕ) ∪ bd(ϕ), jedoch ist f r(α) ∩ bd(ϕ) nicht notwendig leer. 16
Eine Pr¨ adikatenlogik zweiter Stufe erh¨ alt man, wenn die Quantoren nicht nur auf Variable, sondern auch auf Pr¨ adikaten- und Operationssymbole angewendet werden d¨ urfen.
1.6 Boolesche Funktionen und Pr¨ adikate
49
Um unseren Formeln aus F ORM einen Inhalt bzw. eine Interpretation zu geben, ben¨ otigen wir eine nichtleere Menge A (Tr¨ agermenge genannt) sowie f¨ ur alle i ∈ I und alle j ∈ J auf A definierte Operationen fiA der Stelligkeit ni und Relationen RjA der Stelligkeit mj , die Pr¨ adikate PjA induzieren. Wir setzen A := (A; (fi )i∈I , (Rj )j∈J ) und nennen A eine Struktur der Signatur δ. Ordnet man mittels der Abbildung u : V ar −→ A jeder Variablen aus V ar einen gewissen Wert aus A zu, kann man durch folgende Definition der Abbildung u e : T (X) −→ A jedem Term t ∈ T (V ar) einen Wert aus A zuordnen: (1) Falls t ∈ V ar, sei u e(t) := u(t). (2) Falls t = fi (t1 , ..., tni ), wobei {t1 , ..., tni } ⊆ T (V ar), sei u(t1 ), ..., u e(tni )). u e(t) := fiA (e
Seien u, u′ Abbildungen von V ar in A. Wir schreiben u =xk u′ , falls u(xj ) = u′ (xj ) f¨ ur alle j = k (j, k ∈ N).
Es sei A := (A; (fi )i∈I , (Rj )j∈J ) eine Struktur der Signatur δ und u : V ar −→ A eine Abbildung. Mit Hilfe der Struktur A und der Abbildung u kann man jetzt wie folgt eine Abbildung (Bewertung genannt) vA,u : F ORM −→ {0, 1} definieren, die jeder pr¨ adikatenlogischen Formel einen Wahrheitswert zuordnet:
• • •
vA,u (Pj (t1 , ..., tmj )) = 1 genau dann, wenn (e u(t1 ), ..., u e(tmj )) ∈ RjA ; ur alle ◦ ∈ J0 ; vA,u (¬α) := ¬(vA,u (α)) und vA,u (α ◦ β) := vA,u (α) ◦ vA,u (β) f¨ ′ ′ (ϕ) = 1 f¨ u r alle u mit u =xk u′ vA,u (∀xk ϕ) = 1 genau dann wenn v A,u V (wir schreiben: vA,u (∀xk ϕ) = u′ , u=x u′ vA,u′ (ϕ)); k
•
′ ′ vA,u (∃xk ϕ) = 1 genau dann, wenn W es ein u mit u =xk u und vA,u′ (ϕ) = 1 gibt (wir schreiben: vA,u (∃xk ϕ) = u′ , u=x u′ vA,u′ (ϕ) ). k
Beispiele Es sei f ein einstelliges Operationssymbol, P ein einstelliges und Q ein zweistelliges Pr¨ adikatssymbol. Als Tr¨ agermenge einer Struktur A w¨ ahlen wir A := {a, b, c}. Außerdem sei f A (a) := b, f A (b) := c, f A (c) := a, P A sei durch die Relation {b, c} und QA durch die Relation {(a, a), (b, b), (a, c), (c, b)} induziert. Die drei pr¨ adikatenlogischen Formeln α := P (x) =⇒ Q(f (x), y), β
:= (∀x P (x)) =⇒ Q(f (x), y)
γ
:= ∀x (P (x) =⇒ (∃y Q(f (x), y))
haben dann die folgenden Wahrheitswerte in der Struktur A, wenn man u(x) := c und u(y) := a setzt:
50
1 Mathematische Grundbegriffe vA,u (α) = P A (u(x)) =⇒ QA (f A (u(x)), u(y)) = P A (c) =⇒ QA (f A (c), a) = P A (c) =⇒ QA (a, a) = 1 =⇒ 1 = 1, vA,u (β) = vA,u ((∀x P (x))) =⇒ vA,u (Q(f (x), y)) vA,u (γ)
= (P A (a) ∧ P A (b) ∧ P A (c)) =⇒ QA (a, a) = 1, V = u′ , u′ =x u vA,u′ (P (x) =⇒ (∃y Q(f (x), y))) V W A ′ A A ′ ′′ = u′ , u′ =x u (P (u (x)) =⇒ ( u′′ , u′′ =y u′ (Q (f (u (x)), u (y))))
= (P A (a) =⇒ (QA (f A (a), a) ∨ QA (f A (a), b) ∨ QA (f A (a), c))∧ (P A (b) =⇒ (QA (f A (b), a) ∨ QA (f A (b), b) ∨ QA (f A (b), c))∧
(P A (c) =⇒ (QA (f A (c), a) ∨ QA (f A (c), b) ∨ QA (f A (c), c)) = 1. Merken wir uns: Falls ϕ keine Quantoren enth¨ alt, ist vA,u (ϕ) einfach zu berechnen, indem man die Variablen durch die durch u vorgegebenen Elemente aus A ersetzt und dann den Wahrheitswert der Formel ϕ von innen nach außen gem¨ aß der Interpretationen der Operationen und Pr¨ adikate in der Struktur A berechnet. Falls ϕ gewisse Quantoren der Art ∀x oder ∃x mit x ∈ V ar enth¨ alt, hat im Wirkungsbereich des Quantors (einer gewissen Teilformel von ϕ) die Festlegung u(x) keinen Einfluß auf den Wahrheitswert der Teilformel. Gibt es in der Formel ϕ keine freien Variablen, h¨ angt vA,u (ϕ) nur von A und ϕ ab. Man schreibt dann auch A(ϕ) anstelle von vA,u (ϕ). Bildet man eine Formel ϕ′ aus ϕ, indem man eine Teilformel der Gestalt Q x α (Q ∈ {∀, ∃}, x ∈ V ar) durch Q y α′ ersetzt, wobei y ∈ V ar \ V ar(ϕ) und α′ aus α durch das Ersetzen der freien Variablen x durch y entsteht, so gilt vA,u (ϕ) = vA,u (ϕ′ ). ϕ ∈ F ORM wird durch u : V ar −→ A erf¨ ullt, genau dann, wenn vA,u (ϕ) = 1. ϕ ist wahr (oder g¨ ultig) in A genau dann, wenn vA,u (ϕ) = 1 f¨ ur alle u : V ar −→ A gilt. Wir schreiben A |= ϕ f¨ ur ϕ ist wahr in A“. ” A |= ϕ steht f¨ ur ϕ ist nicht wahr (oder falsch) in A“. ” Falls A |= ϕ, heißt A ein Model der Formel ϕ. Gilt A |= σ f¨ ur alle σ ∈ Σ ⊆ F ORM , nennen wir A ein Model der Menge Σ. Offenbar ist eine geschlossene Formel aus F ORM entweder wahr oder falsch in A. Formeln α, β ∈ F ORM heißen ¨ aquivalent (Bezeichnung: α ≡ β) genau dann, wenn ur jede Struktur A und f¨ ur jede Abbildung u : V ar −→ A. vA,u (α) = vA,u (β) f¨ Die im folgenden Satz angegebenen Beispiele f¨ ur ¨ aquivalente Formel sind wichtige Hilfsmittel beim Umformulieren von Sachverhalten, die mittels pr¨ adikatenlogischer Formeln beschreibbar sind. Satz 1.6.3 F¨ ur beliebige ϕ, ψ ∈ F ORM gilt: (1) ¬∀xk ϕ ≡ ∃xk ¬ϕ, ¬∃xk ϕ ≡ ∀xk ¬ϕ;
(2) falls xk ∈ f r(ψ), dann (Qxk ϕ) ◦ ψ ≡ Qxk (ϕ ◦ ψ) f¨ ur alle Q ∈ {∃, ∀} und ◦ ∈ {∧, ∨}; (3) (∀xk ϕ) ∧ (∀xk ψ) ≡ ∀xk (ϕ ∧ ψ), (∃xk ϕ) ∨ (∃xk ψ) ≡ ∃xk (ϕ ∨ ψ); (4) ∀xk (∀xl ϕ) ≡ ∀xl (∀xk ϕ), ∃xk (∃xl ϕ) ≡ ∃xl (∃xk ϕ).
1.7 Graphen
51
Beweis. Wir zeigen exemplarisch nur ¬∀xk ϕ ≡ ∃xk ¬ϕ, indem wir die Allgemeing¨ ultigkeit der Formeln α := (¬∀xk ϕ) =⇒ (∃xk ¬ϕ) und β := (∃xk ¬ϕ) =⇒ (¬∀xk ϕ) beweisen. Sei dazu A eine beliebige zu F ORM passende Struktur und u : V ar −→ A eine beliebig gew¨ ahlte Abbildung. Die Formel α ist allgemeing¨ ultig, wenn vA,u (α) = 1 gilt. Angenommen, vA,u (α) = 0. Dann gilt vA,u (¬∀xk ϕ) = 1 und vA,u (∃xk ¬ϕ) = 0. Wegen 1 = vA,u (¬∀xk ϕ) = ¬(vA,u (∀xk ϕ)) haben wir dann vA,u (∀xk ϕ) = 0, womit eine Abbildung u′ : A −→ A mit u′ =xk u und vA,u′ (ϕ) = 0 existiert. Folglich ¬(vA,u′ (ϕ)) = vA,u′ (¬ϕ) = 1, im Widerspruch zu vA,u (∃xk ¬ϕ) = 0. Also ist α allgemeing¨ ultig. Analog zeigt man die Allgemeing¨ ultigkeit von β. Der oben eingef¨ uhrte Begriffsapparat ist Grundlage automatischer Beweisverfahren. Mehr dazu findet man in B¨ uchern u ¨ ber Mathematische Logik (z.B. [Sch 87], [Hein-W 91], [Rau 96] und [Das 2006]).
1.7 Graphen In den vorangegangenen Abschnitten haben wir uns mehrmals zur Veranschaulichung von Beziehungen (Relationen, Korrespondenzen, Abbildungen) zwischen Elementen von Mengen gewisser Zeichnungen bedient, in denen die Elemente durch Punkte und die Beziehungen zwischen diesen Elementen durch Verbindungsstriche oder Pfeile symbolisiert wurden. F¨ ur die Methode, sich Beziehungen zwischen irgendwelchen Objekten zeichnerisch durch Punkte und Striche zu verdeutlichen, gibt es nat¨ urlich noch viel mehr Anwendungen. So k¨ onnte man z.B. den Aufbau einer chemischen Verbindung, einen Stadtplan, ein Fernmeldenetz, den Aufbau eines Computerprogramms und vieles mehr durch solche Diagramme“ verdeutlichen. ” Diese vielen Anwendungen motivieren die mathematische Behandlung solcher Punkte“ und Striche“, die hier ganz kurz in Ans¨atzen vorgef¨ uhrt werden ” ” soll. In sp¨ ateren Abschnitten kommen wir dann hin und wieder auf diese Objekte zur¨ uck. Ausf¨ uhrlich behandeln wir die Graphentheorie und einige ihrer Anwendungen im Band 2. Wir beginnen mit der mathematischen Beschreibung der sogenannten ungerichteten Graphen wie z.B. s
s s
Indem man die Punkte (nachfolgend Knoten genannt) mit Buchstaben aus der Menge V (hier {x, y, z}) und die Striche (Kanten genannt) mit Elementen aus der Menge E (hier {e1 , e2 , e3 , e4 }) bezeichnet sowie die Verbindungen zwischen den Knoten durch gewisse Kanten durch die Abbildung f : E → V, e1 → {x}, e2 → {x, z}, e3 → {y, z}, e4 → {y, z}
52
1 Mathematische Grundbegriffe
angibt, sind s¨ amtliche uns interessierenden Eigenschaften des obigen ungerichteten Graphen durch das Tripel (V, E, f ) erfaßt: e1
s x e3 s y e2 s z e 4
x f (x) e1 {x} e2 {x, z} e3 {y, z} e4 {y, z}
Dieses Beispiel motiviert folgende Definition Ein ungerichteter Graph G ist ein Tripel (V (G), E(G), fG ), bestehend aus einer nichtleeren Menge V (G) von Knoten (bzw. Ecken (engl.: vertices)), einer dazu disjunkten Menge E(G) von Kanten (engl.: edges) und einer Abbildung fG , die jeder Kante e ∈ E(G) die Menge {x, y} (x = y m¨ oglich!) zuordnet: e → {x, y}. In Beispielen werden wir ungerichtete Graphen meist kurz durch eine Zeichnung, die die Bezeichnungen der Knoten und Kanten enth¨alt, angeben. Zun¨ achst aber eine Reihe von Bezeichnungen und Begriffe f¨ ur ungerichtete Graphen (mehr oder weniger Auswahl): Definitionen Sei G = (V (G), E(G), fG ) ein ungerichteter Graph, e ∈ E(G) und x, y ∈ V (G). Dann heißt bzw. sagt man: • • • •
•
G ist endlich :⇐⇒ V (G) und E(G) sind endliche Mengen; e ist Schlinge :⇐⇒ |fG (e)| = 1; e ist Mehrfachkante :⇐⇒ ∃e′ ∈ E(G)\{e} : fG (e) = fG (e′ ); G ist einfacher :⇐⇒ G besitzt keine Schlingen und Mehrfachkanten; (Einfache Graphen G lassen sich u ¨brigens ohne Verwendung einer Abbildung fG beschreiben: G = (V (G), E(G)), wobei E(G) ⊆ {{a, b} | a = b ∧ {a, b} ⊆ V (E)}.) e verbindet x und y (bzw. e ist inzident zu x und y bzw. x (oder y) ist adjazent zu y (oder x)) :⇐⇒ fG (e) = {x, y}.
Die Anzahl der Kanten, die mit einem Knoten x inzident sind, wird Grad von x in G genannt und mit d(x) bezeichnet. Dabei z¨ahlt man jede Schlinge als zwei Kanten! Man sagt: •
x ist isolierter Knoten :⇐⇒ d(x) = 0; •
•
x ist Endknoten :⇐⇒ d(x) = 1.
r x r r @ @r
1.7 Graphen
53
Wie oben bereits erw¨ ahnt, gibt es Modelle von Systemen, in denen anstelle von Strichen Pfeile Verwendung finden. Z.B. -r -r
r -r?
Mathematisch kann man eine solche Zeichnung mit Hilfe der oben eingef¨ uhrten Begriffe wie folgt beschreiben: G = {{x1 , x2 , x3 , x4 }, {e1 , e2 , e3 , e4 , e5 }, fG ), wobei
x e1 e2 e3 e4 e5
e1 -r x1
fG (x) (x1 , x1 ) (x2 , x3 ) (x3 , x2 ) (x2 , x4 ) (x2 , x4 )
2 r ex3
x2 r e5 e4 -? r x4
e3
Verallgemeinern l¨ aßt sich dieses Beispiel wie folgt: Definition Ein gerichteter Graph ist ein Tripel (V (G), E(G), fG ), bestehend aus der Knotenmenge V (G), der Menge der gerichteten Kanten (B¨ ogen) E(G) und der Inzidenzabbildung fG , die jeder gerichteten Kante e ein geordnetes Paar (x, y) ∈ V (G) × V (G) zuordnet. Falls fG (e) = (x, y), so nennt man x Ausgangsknoten von e und y Endknoten von e. ry > rx
Die obigen Begriffe und Bezeichnungen f¨ ur ungerichtete Graphen lassen sich ohne M¨ uhe fast alle auf gerichtete Graphen u ¨bertragen. Wir verzichten hier auf deren konkrete Angabe. F¨ ur ungerichtete/gerichtete Graphen lassen sich folgende Begriffe einf¨ uhren:
54
1 Mathematische Grundbegriffe
Definitionen G′ = (V (G′ ), E(G′ ), fG′ ) heißt Teilgraph von G = (V (G), E(G), fG ) :⇐⇒ V (G′ ) ⊆ V (G) ∧ E(G′ ) ⊆ E(G) ∧ fG′ ⊆ fG . • G′ heißt spannender Teilgraph von G :⇐⇒ G′ ist Teilgraph von G ∧ V (G) = V (G′ ). • G ist isomorph zu G′ :⇐⇒ ∃ Bijektion g von V (G) auf V (G′ ) ∧ ∃ Bijektion h von E(G) auf E(G′ ) : ∀e ∈ E(G) : fG (e) = {x, y} (bzw. fG (e) = (x, y)) =⇒ fG′ (h(e)) = {g(x), g(y)} (bzw. fG′ (h(e)) = (g(e), g(y)) ). Falls G zu G′ isomorph ist, schreiben wir G ∼ = G′ . Die Relation ∼ = ist offenbar ¨ eine Aquivalenzrelation auf einer Menge von Graphen. Mit der Sprechweise G ist isomorph zu G′“ erfaßt man Graphen, die bis auf ” die Bezeichnung ihrer Knoten und Kanten identisch sind. Beispiel Seien G und G′ ungerichtete Graphen, die durch folgende Skizzen definiert sind: xr2 e′1 ′ r rx′ A x2 3 e1 A e2 A ′ e ′ 2 G : G: A e3 A e′3 A e′4 Arx3 x1 r Ar e4 x′1 •
G ist zu G′ isomorph, da obige Definition f¨ ur die Abbildungen g:
h:
x1 → x′3 x2 → x′1 x3 → x′2
e1 e2 e3 e4
e′4 → → e′3 → e′1 → e′2
erf¨ ullt ist. Definitionen x0 e1 x1 e2 x2 e3 x3 . . . en xn heißt Kantenfolge (bzw. gerichtete Kantenfolge) ange n des gerichteten Graphen (bzw. des ungerichteten von x0 nach xn der L¨ ∀i ∈ {1, 2, . . . , n} : fG (ei ) = {xi−1 , xi } Graphen) G :⇐⇒ (bzw. fG (ei ) = (xi−1 , xi )).
x0 r
x1 r @ e2 @ @r x2 e1
x4 r
e3
r e4 x3
e5
x5 r
p p p p p
xn−2 xn−1 r r en−1@ en @ @r xn
Die Kantenfolge nennt man offen, wenn x0 = xn . Sie heißt geschlossen, wenn x0 = xn ist.
1.7 Graphen
55
Man nennt die Kantenfolge (bzw. gerichtete Kantenfolge) x0 e1 . . . en xn Weg (bzw. gerichteten Weg oder Bahn), wenn sie offen ist und alle x0 , . . . , xn paarweise verschieden sind. Eine Kantenfolge (bzw. gerichtete Kantenfolge) wird Kreis (bzw. gerichteter Kreis oder Zyklus) genannt, wenn sie geschlossen ist und alle x0 , . . . , xn−1 paarweise verschieden sind. Außerdem: Ein ungerichteter Graph G heißt zusammenh¨ angend :⇐⇒ ∀x, y ∈ V (G) ∃ Kantenfolge von x nach y. Ein gerichteter Graph G heißt stark zusammenh¨ angend :⇐⇒ ∀x, y ∈ V (G) ∃ gerichtete Kantenfolge von x nach y. Abschließend noch zwei Beispiele (nicht repr¨ asentativ!) daf¨ ur, was in der Graphentheorie untersucht bzw. welche S¨ atze erhalten wurden. Dabei betrachten wir nur ungerichtete Graphen. Wir beginnen mit den Eulerschen Linien. Eine Kantenfolge K := x0 e1 x1 e2 . . . en xn heißt offene (bzw. geschlossene) Eulersche Linie des ungerichteten Graphen G, falls gilt: {e1 , . . . , en } = E(G) ∧ (∀i = j : ei = ej ) ∧ (x0 = xn (bzw. x0 = xn )).
Z.B. besitzt der Graph
G:
5 s e1 @ e2 e3 @@s 3 4 s HH e6 e7 H e4 e5 HH Hs s e8 1 2
die offene Eulersche Linie 1e6 3e3 4e1 5e2 3e7 2e8 1e4 4e5 2. Folgendes Kriterium f¨ ur die Existenz Eulerscher Linien wurde von L. Euler 1741 erhalten: Sei G ein zusammenh¨angender ungerichteter Graph. Dann gilt: G besitzt genau dann eine offene (bzw. geschlossene) Eulersche Linie, wenn genau zwei Knoten von G einen ungeraden Grad haben (bzw. wenn d(x) f¨ ur alle x ∈ V (G) gerade ist). Bewiesen wird dieser Satz im Band 2. Die nachfolgenden Verfahren zur Konstruktion von Minimalger¨ usten findet man ebenfalls im Band 2 ausf¨ uhrlich erl¨ autert. Ausgangspunkt ist z.B. folgendes Problem: Geplant ist der Bau neuer Geb¨ aude, die mit Energie (z.B. Gas, Strom, Dampf) versorgt werden sollen. Die Kosten f¨ ur die Herstellung m¨oglicher Leitungsverbindungen zwischen den Geb¨ auden seien bekannt. Wie findet man ein kostenoptimales Leitungsnetz, das alle Geb¨ aude versorgt, vorausgesetzt, daß eine Zuleitung pro Geb¨ aude gen¨ ugt und die L¨ ange des Weges von einer Energiequelle zum Geb¨ aude keine Rolle spielen soll?
56
1 Mathematische Grundbegriffe
Ein zugeh¨ origes Graphenmodell sieht so aus: Knoten sind die zu versorgenden Geb¨ aude, (ungerichtete) Kanten sind die m¨ oglichen Leitungsverbindungen zwischen den Geb¨auden ai und aj , die mit den Herstellungskosten αk bewertet werden: q q αk ai aj Exakt l¨ aßt sich dies mittels einer Kostenfunktion“ ” α : E(G) → R beschreiben. Der sich ergebende Graph G ist offenbar zusammenh¨angend. Da geschlossene Kantenfolgen u ussige Verbindungen liefern, welche die Kosten erh¨ohen, ¨ berfl¨ muß also ein zusammenh¨ angender, kreisloser, spannender Teilgraph (ein sogenanntes Ger¨ ust) gefunden werden, dessen Kantenbewertungssumme minimal ist, d.h., wir haben ein sogenanntes Minimalger¨ ust aufzufinden. Nachfolgend sind zwei Verfahren angegeben, die unter der Voraussetzung, daß die Kanten paarweise verschiedene Kantenbewertungen besitzen, jeweils eine eindeutige L¨ osung liefern. Bei der Beschreibung dieser Verfahren wird die anschauliche Darstellung der Graphen zu Grunde gelegt. Erstes Verfahren: Man starte mit der Kante niedrigster Bewertung und f¨ uge solange als m¨oglich die jeweils minimal bewertete Kante hinzu, die mit den bereits gew¨ahlten Kanten einen zusammenh¨ angenden Graphen, aber keinen Kreis bildet. Zweites Verfahren: (1.) Man bilde den Teilgraphen G1 von G, wobei V (G1 ) = V (G) und E(G1 ) aus den Kanten jedes Knoten aus V (G) zu seinen n¨achsten Nachbarn (das sind Knoten, zu denen Kanten mit der kleinsten Bewertung f¨ uhren, die von dem betrachteten Knoten ausgehen) besteht. Falls G1 zusammenh¨ angend ist, bildet G1 das gesuchte Minimalger¨ ust. angend, so ersetze man jede Komponente (das (2.) Ist G1 nicht zusammenh¨ ist ein zusammenh¨ angender Teilgraph, der nicht Teilgraph eines anderen zusammenh¨ angenden Teilgraphen ist) von G1 durch einen einzigen Knoten und bildet einen Graphen G2 , in dem zwei Knoten durch eine Kante verbunden werden, sofern in E(G) eine Kante zwischen den entsprechenden Komponenten existiert. Gew¨ ahlt wird dabei die Kante mit minimaler Bewertung. angend und kreislos, so ist man fertig. (3.) Ist G2 zusammenh¨ ur e ∈ E(G1 ) ∪ G3 := (V (G), E(G1 ) ∪ E(G2 ), fG3 ) mit fG3 (e) := fG (e) f¨ E(G2 ) ist ein gesuchtes Minimalger¨ ust. Besteht G2 aus ≥ 2 Komponenten oder besitzt Kreise, so verfahre man mit G2 wie mit G in (1.) und (2.). Zwecks Illustration der obigen Verfahren wollen wir abschließend ein Minimalger¨ ust f¨ ur den Graphen G mit
1.7 Graphen
57
V (G) = {a, b, c, d, e, f, g, h, i}, E(G) = {{a, b}, {a, d}, {a, g}, {b, c}, {b, d}, {c, d}, {c, e}, {c, f}, {d, e}, {d, g}, {d, h}, {e, f }, {e, h}, {e, i}, {f, i}, {g, h}, {h, i}}
und fG = idE (G) sowie den Kosten (Kantenbewertungen) α({a, b}) = 15, α({a, d}) = 17, ... (siehe Zeichnung) ermitteln. ar br 15 3 @ @ @ 17 11 12 @ @ 1 @ 14 dr
g
16 9
13
r
rc @ @ @ 6 @8 @ f r e 5 @r
r h
2
7
r
4
10
i
Das erste Verfahren verl¨ auft dann wie folgt: Beginn mit {d, e} (kleinste Bewertung!). Fortsetzung mit {e, f } (wiederum kleinste Bewertung!). Weitere Fortsetzungen sind: {c, e}, {b, c}, {e, i}, {h, i}, {g, h}. {c, f }, {e, h}, {f, i}, {b, d}, {c, d}, {d, g} entfallen wegen Kreisverbot. Fortsetzung mit {a, g}. Abbruch, da alle Knoten erfaßt sind! Als Minimalger¨ ust erhalten wir G′ = (V (G); {{a, g}, {b, c}, {c, e}, {d, e}, {e, f }, {e, i}, {g, h}, {h, i}}).
Dieses Ger¨ ust ergibt sich auch bei Anwendung des zweiten Verfahrens. Dabei auftretende Zwischenschritte sind: (1)
ar K1 14
g
r
br
3
rc
K3 d r
1
re
K2
2
h
r
4
r
i
5
r
f
58
1 Mathematische Grundbegriffe
(2)
(1′ )
15 q K2 K1 q @ @ @ 6 7@ @ @q K3 q K2 K1 q @ @ @ 6 7@ @ @q K3
2 Klassische algebraische Strukturen
Bei einer Reihe von Mengen, f¨ ur deren Elemente gewisse Operationen erkl¨art sind, kann man gewisse Gemeinsamkeiten bez. der Rechenregeln“ erkennen. ” So gilt z.B. f¨ ur jede der Mengen P(N)
N
NN
(die Menge der nat¨ urlichen Zahlen, die Menge aller Teilmengen von N und die Menge aller Abbildungen von N in N) mit den zugeh¨origen inneren Verkn¨ upfungen (Operationen) +
∪
2
das sogenannte Assoziativgesetz1 x ◦ (y ◦ z) = (x ◦ y) ◦ z, wobei ◦ ∈ {+, ∪, 2} und x, y, z beliebig w¨ ahlbare Elemente aus den zu den Operationen geh¨orenden Mengen bezeichnen. Es bietet sich nun an, anstelle von konkreten Mengen mit dazugeh¨ origen konkreten Operationen sogenannte algebraische Strukturen (allgemeine Algebren, universale Algebren) M := (M ; ◦1 , ◦2 , ◦3 , . . .) aus einer nichtleeren Menge M ( Tr¨ agermenge“) und gewissen auf M definier” ten inneren Verkn¨ upfungen ◦1 , ◦2 , . . . , die gewissen Gesetzen“ gen¨ ugen, be” stehend, zu untersuchen. Vorteil dieser Methode: Abgeleitete Aussagen (Aussagen, die nur aus den Rechenregeln“ – wie z.B. dem Assoziativgesetz – fol” gen) u ur s¨amtliche Beispiele, m¨ ussen also ¨ ber algebraische Strukturen gelten f¨ nicht f¨ ur jedes Beispiel extra bewiesen werden. Außerdem liefert diese Vorgehensweise tiefere Einsichten u ¨ ber die betrachteten Strukturen und erschließt auch neue Anwendungsgebiete f¨ ur die Mathematik. Entwickelt wurde diese 1
Siehe Satz 1.2.4 und Satz 1.4.1.
60
2 Klassische algebraische Strukturen
Methode des Studiums mathematischer Objekte bei der Suche nach L¨osungen jahrhundertealter Probleme – wie z.B. dem der Existenz von L¨osungsformeln, in denen nur bestimmte Zeichen wie etwa Wurzelausdr¨ ucke vorkommen sollen, f¨ ur xn + an−1 · xn−1 + . . . + a1 · x + a0 = 0 (ai ∈ C) – und bei dem Bem¨ uhen, das Gesamtgeb¨aude der Mathematik u ¨ bersichtlich darzustellen. Wir betrachten nachfolgend zun¨ achst spezielle algebraische Strukturen mit h¨ochstens zwei inneren Verkn¨ upfungen, sogenannte Halbgruppen, Gruppen, Ringe, K¨orper und Verb¨ande und anschließend solche mit zwei zweistelligen Operationen und einer einstelligen Operation, die sogenannten Booleschen Algebren. Ziel dieses Kapitels ist es, eine f¨ ur diesen Band ausreichende Einf¨ uhrung in die oben genannten algebraischen Strukturen zu geben. Fortsetzungen und Erg¨ anzungen dieses Kapitels findet man dann im Band 2.
2.1 Halbgruppen Definitionen Es sei H eine nichtleere Menge und ◦ eine innere Verkn¨ upfung auf H. Man sagt (H; ◦) ist Halbgruppe :⇐⇒ ∀a, b, c ∈ H : a ◦ (b ◦ c) = (a ◦ b) ◦ c. (A)
Falls sich aus dem Zusammenhang die Operation ◦ ergibt, schreiben wir anstelle von (H; ◦) nur H bzw. H. Das Element a ◦ b aus H heißt Produkt von a und b. Beispiele Halbgruppen sind (1.) (N; +), (N; ·), (Q; +), (Q; ·), (R; +), ...
und f¨ ur jede nichtleere Menge M : (2.) (P(M );∩), (P(M ); ∪), (P(M ); △), (3.) (P(M × M ); 2), (4.) (M M ; 2).
Keine Halbgruppen sind (5.) ({1, 2, 3}; +), da + keine innere Verkn¨ upfung auf {1, 2, 3}, (6.) (Z; −), da − nicht assoziativ (z.B. ist 1−(2−3) = 2, aber (1−2)−3 = −4). Ist H eine endliche Menge, d.h., H = {x1 , x2 , . . . , xn }, so kann man die Halbgruppe (H; ◦) durch eine Halbgruppentafel charakterisieren:
2.1 Halbgruppen
61
◦ x1 x2 ... xj ... xn x1 x1 ◦ x1 x1 ◦ x2 . . . x1 ◦ xj . . . x1 ◦ xn x2 x2 ◦ x1 x2 ◦ x2 . . . x2 ◦ xj . . . x2 ◦ xn .. . xi xi ◦ x1 xi ◦ x2 . . . xi ◦ xj . . . xi ◦ xn .. . xn xn ◦ x1 xn ◦ x2 . . . xn ◦ xj . . . xn ◦ xn Beispiel
(P({a}); ∩), P({a}) = {∅, {a}} ∩ ∅ {a} ∅ ∅ ∅ {a} ∅ {a}
Satz 2.1.1 In einer beliebigen Halbgruppe (H; ◦) h¨angt das Produkt beliebiger Elemente a1 , a2 , . . . , an aus H (n ≥ 3) in der durch die Numerierung gegebenen Anordnung nicht von der Verteilung der Klammern in dem Produkt ab. Beweis. Wir beweisen den Satz durch vollst¨andige Induktion u ¨ ber n ≥ 3. (I) Wegen (A) ist die Behauptung f¨ ur n = 3 richtig. (II) Angenommen, die Behauptung ist f¨ ur Produkte mit weniger als n Faktoren bewiesen, so daß man in solchen auf die Beklammerung verzichten kann. Daher braucht man bei einem Produkt aus n Faktoren der Elemente a1 , a2 , . . . , an nur noch folgende Beklammerung zu unterscheiden: a1 ◦ (a2 ◦ a3 ◦ . . . ◦ an ), (a1 ◦ a2 ) ◦ (a3 ◦ a4 ◦ . . . ◦ an ), (a1 ◦ a2 ◦ . . . ai ) ◦ (ai+1 ◦ . . . ◦ an ) (a1 ◦ a2 ◦ . . . ◦ an−1 ) ◦ an . Wir zeigen, daß ein beliebiger dieser Ausdr¨ ucke mit
(a1 ◦ a2 ◦ . . . ai ) ◦ (ai+1 ◦ . . . ◦ an ) a1 ◦ (a2 ◦ a3 ◦ . . . ◦ an )
u ¨ bereinstimmt. Unter Verwendung von (A) und unserer Annahme erh¨alt man: (a1 ◦ . . . ◦ ai ) ◦ (ai+1 ◦ . . . ◦ an ) = (a1 ◦ (a2 ◦ . . . ◦ ai )) ◦ (ai+1 ◦ . . . ◦ an ) = a1 ◦ ((a2 ◦ . . . ◦ ai ) ◦ (ai+1 ◦ . . . ◦ an )) = a1 ◦ (a2 ◦ . . . ◦ an ). Folglich gilt unsere Behauptung. Wegen Satz 2.1.1 k¨onnen wir nachfolgend bei Produkten von Elementen einer Halbgruppe auf das Setzen von Klammern verzichten. Als n¨ achstes behandeln wir Elemente von Halbgruppen bzw. Halbgruppen mit besonderen Eigenschaften. Definitionen
Es sei (H; ◦) eine Halbgruppe und h ∈ H. Dann heißt
62
• • •
2 Klassische algebraische Strukturen
H kommutative (abelsche2 ) Halbgruppe :⇐⇒ ∀a, b ∈ H : a ◦ b = b ◦ a; (K) h Nullelement von H :⇐⇒ ∀x ∈ H : x ◦ h = h ◦ x = h; (Beispiele: 0 ist Nullelement von (N0 ; ·), N ist Nullelement von (P(N); ∪).) h Einselement (neutrales Element) von H :⇐⇒ ∀x ∈ H : x ◦ h = h ◦ x = x. (Beispiele: 0 ist Einselement von (N0 ; +), 1 ist Einselement von (N; ·), ∅ ist Einselement von (P(N); ∪).)
Eine Halbgruppe mit einem Einselement nennt man Monoid. Sei (H; ◦) ein Monoid mit genau einem Einselement e und h ∈ H. Dann heißt •
h invertierbar :⇐⇒ ∃h′ ∈ H : h ◦ h′ = h′ ◦ h = e. h′ nennt man in diesem Fall ein zu h inverses Element. Beispiele: (P(N); △) ist ein Monoid mit dem (einzigen) Einselement ∅. F¨ ur X ∈ P(N) ist X das inverse Element. In (N; ·) ist nur 1 invertierbar.
Satz 2.1.2 Es sei (H; ◦) eine Halbgruppe. Dann gilt: (1) H besitzt h¨ochstens ein Einselement und h¨ochstens ein Nullelement. (2) Hat H ein Einselement e und ist h ∈ H invertierbar, so ist das zu h inverse Element h′ eindeutig bestimmt. Beweis. (1): Angenommen, e und e′ sind Einselemente von H. Dann gilt e ◦ e′ = e′ ◦ e = e′ wegen der Eigenschaft von e und e ◦ e′ = e′ ◦ e = e wegen der Eigenschaft von e′ . Also e = e′ . Analog u ¨berlegt man sich, daß es h¨ochstens ein Nullelement gibt. (2): Seien h′ und h′′ inverse Elemente zu h. Dann gilt h′ = e ◦ h′ = (A)
(h′′ ◦ h) ◦ h′ = h′′ ◦ (h ◦ h′ ) = h′′ ◦ e = h′′ .
Definition
Es sei (H; ◦) eine Halbgruppe und H ′ ⊆ H. Dann heißt
H ′ Unterhalbgruppe von H :⇐⇒ (H ′ ; ◦) Halbgruppe
(◦ bezeichnet dabei die Operation von H, jedoch auf H ′ beschr¨ankt). Offenbar gilt H ′ Unterhalbgruppe von H ⇐⇒ H ′ ◦ H ′ := {x ◦ y | x ∈ H ′ ∧ y ∈ H ′ } ⊆ H ′ . Beispiele Eine Unterhalbgruppe von (Z; +) ist (N; +). Keine Unterhalbgruppe von (Z; +) ist u.a. ({1}; +). Definition 2
Es sei (H; ◦) eine algebraische Struktur mit nur einer inneren
Benannt nach Nils Henrik Abel (1802–1829), norwegischer Mathematiker.
2.1 Halbgruppen
63
Verkn¨ upfung und H ′ ⊆ H. Unter dem Abschluß H ′ von H ′ verstehen wir die Menge aller m¨ oglichen endlichen Produkte von Elementen aus H ′ , d.h., H ′ := {a1 ◦ a2 ◦ . . . ◦ ar | r ∈ N ∧ {a1 , a2 , . . . , ar } ⊆ H ′ }. Falls (H; ◦) Halbgruppe, so ist H ′ die kleinste Unterhalbgruppe von H, die alt. H ′ enth¨ Beispiele W¨ ahlt man (H; ◦) = (Z; +), so gilt {1} = N und {1, −1} = Z.
Es sei (H; ◦) eine algebraische Struktur und H ′ ⊆ H. Man
Definitionen sagt • •
H ′ erzeugt H :⇐⇒ H ′ = H; H ist endlich erzeugt :⇐⇒ ∃H ′ : H ′ = H ∧ H ′ endlich.
Satz 2.1.3 Es sei (H; ◦) eine algebraische Struktur und E = H. Gilt f¨ ur beliebige x, z ∈ H und beliebiges e ∈ E stets x ◦ (e ◦ z) = (x ◦ e) ◦ z, so ist (H; ◦) eine Halbgruppe. Beweis.
Wir betrachten die Menge H ′ := {y ∈ H | ∀x, z ∈ H : x ◦ (y ◦ z) = (x ◦ y) ◦ z}.
Unser Satz ist bewiesen, wenn wir H = H ′ nachweisen k¨onnen. Offenbar ist E ⊆ H ′ . Seien nun u, v ∈ H ′ . Dann gilt f¨ ur beliebige x, z ∈ H:
(x ◦ (u ◦ v)) ◦ z
da
da
u∈H ′
=
v∈H ′
((x ◦ u) ◦ v) ◦ z
da
v∈H ′
=
(x ◦ u) ◦ (v ◦ z)
da
u∈H ′
=
x ◦ (u ◦ (v ◦ z)) = x ◦ ((u ◦ v) ◦ z). Folglich geh¨ ort u ◦ v zu H ′ , womit H ′ eine Unterhalbgruppe von H ist. Wegen ′ E ⊆ H und E = H folgt hieraus H = H ′ . Der eben bewiesene Satz liefert als Folgerung ein Verfahren (Light-Test3 ), mit dem man feststellen kann, ob eine Menge H = {x1 , x2 , . . . , xn } (n ∈ N) zusammen mit der Operation ◦ eine Halbgruppe ist: Man w¨ ahle eine m¨ oglichst kleine Menge E mit E = H und vergleiche f¨ ur jedes e ∈ E die folgenden Tabellen T1 (e) und T2 (e). T1 (e) :
3
◦ x1 x2 x1 ◦ e (x1 ◦ e) ◦ x1 (x1 ◦ e) ◦ x2 x2 ◦ e (x2 ◦ e) ◦ x1 (x2 ◦ e) ◦ x2 .. .. .. . . . xn ◦ e (xn ◦ e) ◦ x1 (xn ◦ e) ◦ x2
Benannt nach F. W. Light.
... xn . . . (x1 ◦ e) ◦ xn . . . (x2 ◦ e) ◦ xn .. . . . . (xn ◦ e) ◦ xn
64
2 Klassische algebraische Strukturen
T2 (e) :
◦ e ◦ x1 e ◦ x2 x1 x1 ◦ (e ◦ x1 ) x1 ◦ (e ◦ x2 ) x2 x2 ◦ (e ◦ x1 ) x2 ◦ (e ◦ x2 ) .. .. .. . . . xn xn ◦ (e ◦ x1 ) xn ◦ (e ◦ x2 )
... e ◦ xn . . . x1 ◦ (e ◦ xn ) . . . x2 ◦ (e ◦ xn ) .. . . . . xn ◦ (e ◦ xn )
Die Operation ◦ ist assoziativ, wenn das Innere der Tabelle T1 (e) mit ur jedes e ∈ E u dem von T2 (e) f¨ ¨bereinstimmt. Beispiel Wir rechnen so, wie es in einigen urgesellschaftlich lebenden St¨ ammen einst u ¨ blich war: 1 ⊕ 1 = 2, 1 ⊕ 2 = 3, 2 ⊕ 3 = viel“ =: v. Wir k¨onnen also exakt nur bis 3 ” ⊕ 1 2 3 v 1 2 3 v v z¨ ahlen! Ist ({1, 2, 3, v}; ⊕) mit 2 3 v v v eine Halbgruppe? 3 v v v v v v v v v F¨ ur E = {1} gilt E = {1, 2, 3, v} und T1 (1):
T2 (1):
⊕ 1⊕1=2 2⊕1=3 3⊕1=v v⊕1=v
1 3 v v v
2 v v v v
3 v v v v
v v v v v
⊕ 1⊕1 1⊕2 1⊕3 1⊕v 1 3 v v v 2 v v v v 3 v v v v v v v v v
({1, 2, 3, v}; ⊕) ist also eine Halbgruppe. Vor der n¨ achsten Definition ein einf¨ uhrendes Beispiel Die Halbgruppen H1 = ({0, 1}; ◦1) und H2 = ({a, b}; ◦2) mit ◦1 0 1 0 0 1 1 1 1
und
◦2 a b a a b b b b
unterscheiden sich nur in den Bezeichnungen ihrer Elemente und ihrer inneren Verkn¨ upfungen. Solche Halbgruppen nennt man isomorph zueinander. Mathematisch l¨ aßt sich diese Gleichheit bis auf Bezeichnungen“ der obigen ” Halbgruppen durch die Existenz einer bijektiven Abbildung f von {0, 1} auf {a, b} (f : 0 → a, 1 → b) beschreiben, die die Verkn¨ upfungstafel von H1 in uhrt: die von H2 u ¨ berf¨
2.1 Halbgruppen
65
◦1 . . . y ... ◦2 . . . f (y) ... .. .. .. .. f . . . . −→ x . . . x ◦1 y f (x) . . . f (x) ◦2 f (y) = f (x ◦1 y) .. .. . . Definition heißt
Seien H1 = (H1 ; ◦1 ) und H2 = (H2 ; ◦2 ) Halbgruppen. Dann
H1 isomorph zu H2 :⇐⇒ ∃ bijektive Abbildung f : H1 → H2 : ∀x, y ∈ H1 : f (x ◦1 y) = f (x) ◦2 f (y). Anstelle von H1 ist isomorph zu H2“ schreiben wir auch ” ≈ H1 = H2 . ≈ Lemma 2.1.4 Die Isomorphie = ist auf einer Menge von Halbgruppen eine ¨ Aquivalenzrelation. Beweis.
¨ UA.
Schw¨ acht man die Bedingung in obiger Definition derart ab, daß f ist bi” jektive Abbildung“ durch f ist surjektiv“ ersetzt wird, gelangt man zu den ” folgenden Definitionen heißt
Seien H1 = (H1 ; ◦1 ) und H2 = (H2 ; ◦2 ) Halbgruppen. Dann
H2 ein homomorphes Bild von H1 :⇐⇒ ∃ surjektive Abbildung f : H1 → H2 (∀x, y ∈ H1 f (x ◦1 y) = f (x) ◦2 f (y) ). Die Abbildung f wird in diesem Fall eine homomorphe Abbildung bzw. ein Homomorphismus genannt. Beispiel Die Halbgruppe ({0,1,2,3,4,5}; + mod 6) l¨aßt sich homomorph auf die Halbgruppe ({0,1,2}; + mod 3) abbilden, wie man sich anhand der Verkn¨ upfungstafeln leicht u ¨ berlegen kann: + mod 6 0 3 1 4 2 5 0 0 3 1 4 2 5 3 3 0 4 1 5 2 1 1 4 2 5 3 0 4 4 1 5 2 0 3 2 2 5 3 0 4 1 5 5 2 0 3 1 4
+ mod 3 0 1 2 0 0 1 2 1 1 2 0 2 2 0 1.
Eine homomorphe Abbildung ist z.B. f := {(0, 0), (3, 0), (1, 1), (4, 1), (2, 2), (5, 2)}.
66
2 Klassische algebraische Strukturen
2.2 Gruppen Definition
Sei (G; ◦) eine algebraische Struktur. Dann heißt
(G; ◦) Gruppe :⇐⇒ (G; ◦) ist Halbgruppe (d.h., (A) gilt) ∃e G : x ◦ e = x ∈ G : ∀x ∈ (E) ′ ′ ∀x ∈ G : ∃x ∈ G : x ◦ x = e . (I)
∧ ∧
Eine weitere M¨ oglichkeit, eine Gruppe zu definieren, ergibt sich aus dem folgenden Satz 2.2.1 (G; ◦) Gruppe ⇐⇒ (G; ◦) ist Monoid, in dem alle Elemente invertierbar sind, d.h., es gilt (A) (E’) ∃e ∈ G : ∀x ∈ G : x ◦ e = e ◦ x = x (I’) ∀x ∈ G : ∃x′ ∈ G : x ◦ x′ = x′ ◦ x = e.
∧ ∧
Beweis. ⇐=“ folgt unmittelbar aus der Definition einer Gruppe. ” =⇒“: Sei (G; ◦) eine Halbgruppe, die (E) und (I) erf¨ ullt. F¨ ur den Nachweis ” von (I’) haben wir zu zeigen, daß aus x ◦ x′ = e stets x′ ◦ x = e f¨ ur beliebiges x ∈ G folgt. Wegen x ◦ x′ = e und (E) gilt: x′ ◦ (x ◦ x′ ) = x′ . Außerdem existiert f¨ ur x′ ein x′′ mit x′ ◦ x′′ = e, womit e = x′ ◦ x′′ = (x′ ◦ x ◦ x′ ) ◦ x′′ = ′ ullt. (x ◦ x) ◦ (x′ ◦ x′′ ) = x′ ◦ x, d.h., (I’) ist erf¨ (E’) ergibt sich wie folgt: Sei x ◦ e = x. Wegen der G¨ ultigkeit von (I’) und (E) gibt es ein x′ mit x ◦ x′ = x′ ◦ x = e. Hieraus folgt nach (A): e ◦ x = (x ◦ x′ ) ◦ x = x ◦ (x′ ◦ x) = x ◦ e = x. Mit Hilfe von Satz 2.1.2 erhalten wir als Folgerung aus Satz 2.2.1 den Satz 2.2.2 In einer Gruppe sind das Einselement und das zu jedem Element x ∈ G existierende inverse Element x′ eindeutig bestimmt. Folgende Schreibweisen werden wir bei Gruppen verwenden: Verkn¨ upfung Einselement zu x inverses Element
allgemein multiplikativ“ additiv“ ” ” ◦ · + e 1 0 x−1 x−1 −x .
Die additive Schreibweise einer Gruppe wird in der Regel nur f¨ ur kommutative Gruppen verwendet.
2.2 Gruppen
67
Vor der Herleitung einiger Eigenschaften von Gruppen mehrere (zum Teil wichtige) Beispiele. Beispiel 1 Falls + bzw. · die gew¨ ohnliche Addition bzw. Multiplikation bezeichnet, sind folgende algebraische Strukturen Gruppen: (Z; +), (Q; +), (R; +), (Q\{0}; ·) und (R\{0}; ·). Beispiel 2 Verkn¨ upfungstafeln von Gruppen mit 2, 3 bzw. 4 Elementen sind ◦ e a e e a a a e ◦ e a b c
e e a b c
a a b c e
b b c e a
c c e a b
◦ e a b c
◦ e a b
e e a b
a a b e
b b e a
e e a b c
a a e c b
b b c e a
c c b a e.
Als simple Folgerung aus weiter unten angegebenen Eigenschaften von Gruppen wird sich u ¨ brigens ergeben, daß die oben angegebenen Gruppen (bis auf Isomorphie) die einzigen Gruppen mit 2, 3 bzw. 4 Elementen sind. Eine Fortsetzung dieses Kindergartens“ der kleinen Gruppen findet man z.B. ” in [Lid-P 82] oder [Cig 95]. Beispiel 3: Die symmetrische Gruppe Sn := (Sn ; 2) Sn bezeichne f¨ ur n ∈ N die Menge {f | f ist Bijektion von {1, 2, ..., n} auf {1, 2, ..., n}}, deren Elemente Permutationen genannt werden. Es ist u ¨ blich, s ∈ Sn durch das folgende Schema zu beschreiben: 1 2 3 ... n . s(1) s(2) s(3) . . . s(n) s2t bezeichnet (wie in Abschnitt 1.1 vereinbart) die Hintereinanderausf¨ uhrung der Abbildungen s und t. Unter Verwendung obigen Schemas gilt 1 2 ... n 1 2 ... n s2t = 2 s(1) s(2) . . . s(n) t(1) t(2) . . . t(n) 1 2 ... n = . t(s(1)) t(s(2)) . . . t(s(n))
68
2 Klassische algebraische Strukturen
Die G¨ ultigkeit der Gruppenaxiome (A), (E) und (I) f¨ ur (Sn ; 2) ergibt sich aus den S¨ atzen 1.4.1 und 1.4.3 des Kapitels 1. Es sei noch bemerkt, daß |Sn | = n!. Speziell f¨ ur n = 3 vereinbaren wir folgende Bezeichnungen: = {s1 , s2 , s3 , s4 , s5 , s6 }, wobei s1 : = 11 22 33 (= e = id{1,2,3} ), s2 := 11 23 32 , s3 : = 12 21 33 , s4 := 12 23 31 , s5 : = 13 21 32 , s6 := 13 22 31 . S3
Die Verkn¨ upfungstafel der symmetrischen Gruppe S3 sieht dann wie folgt aus: 2 s1 s2 s3 s4 s5 s6
s1 s1 s2 s3 s4 s5 s6
s2 s2 s1 s5 s6 s3 s4
s3 s3 s4 s1 s2 s6 s5
s4 s4 s3 s6 s5 s1 s2
s5 s5 s6 s2 s1 s4 s3
s6 s6 s5 s4 s3 s2 s1
S3 ist offenbar nicht kommutativ! Beispiel 4: Die additive Gruppe (Zn ; + mod n) der Restklassen modulo n Wie im Abschnitt 1.4 definiert, sei Zn die Faktormenge Z nach ≡n , d.h., Z ¨ besteht aus den Aquivalenzklassen der Relation ≡n : Zn = {[0], [1], [2], ..., [n − 1]}, f¨ ur die wir außerdem die Addition modulo n wie folgt definiert hatten: [x] + [y] := [x + y] (x, y ∈ Z). (Zn ; +) ist offenbar eine kommutative Gruppe mit dem Einselement [0]. Das zu [x] inverse Element ist [−x]. Der K¨ urze wegen verzichten wir nachfolgend bei der Bezeichnung der Elemente von Zn auf die eckigen Klammern, d.h., wir setzen a = [a] f¨ ur a ∈ {0, 1, 2, ..., n − 1}. Falls erforderlich, unterscheiden wir die Addition modulo n von der gew¨ ohnlichen Addition durch die Schreibweise + (mod n). upfungstafel: Z.B. hat dann (Z3 ; +) die folgende Verkn¨ + (mod 3) 0 1 2 0 0 1 2 1 1 2 0 2 2 0 1.
2.2 Gruppen
69
Auf Zn l¨ aßt sich neben der Addition modulo n auch eine Multiplikation modulo n definieren, wie wir uns in Abschnitt 1.4 u ¨ berlegt hatten: [x] · [y] := [x · y] (x, y ∈ Z). Die algebraische Struktur (Zn ; ·) ist zwar eine Halbgruppe mit dem Einselement [1], jedoch keine Gruppe, da f¨ ur [0] (wegen [0] · [x] = [0] f¨ ur beliebiges x ∈ Z) kein inverses Element existiert. Geht man nun zu (Zn \{0}; ·) u ¨ ber, so erh¨ alt man nicht f¨ ur jedes n eine Gruppe, wie folgendes Beispiel zeigt: Unter Verwendung der oben eingef¨ uhrten Kurzschreibweise f¨ ur die Elemente von Z4 gilt: · (mod 4) 1 2 3 1 1 2 3 2 2 0 2 3 3 2 1, womit · (mod 4) keine innere Verkn¨ upfung auf der Menge {1,2,3} ist. Eine Gruppe ist jedoch ({[1], [3]}; · (mod 4)). Diese Gruppe l¨aßt sich verallgemeinern zum Beispiel 5: Die Gruppe (Pn ; · mod n) der primen Restklassen modulo n Pn bezeichne die Menge {[a] ∈ Zn | der gr¨ oßte gemeinsame Teiler von a und n ist 1}. Zur Erinnerung: d heißt gr¨ oßter gemeinsamer Teiler von a ∈ Z\{0} und b ∈ Z\{0} :⇐⇒ d ∈ N ∧ d|a ∧ d|b ∧ (∀t ∈ N : (t|a ∧ t|b) =⇒ t|d). Bezeichnen wollen wir den gr¨ oßten gemeinsamen Teiler von a und b mit a ⊓ b. F¨ ur den Beweis, daß (Pn ; ·) eine Gruppe bildet, ben¨otigen wir folgenden Satz 2.2.3 (Satz vom gr¨ oßten gemeinsamen Teiler) Seien a, b ∈ Z\{0}. Dann existiert genau ein gr¨oßter gemeinsamer Teiler d ∈ N von a und b, der sich f¨ ur gewisse α, β ∈ Z in der Form d= α·a+β·b darstellen l¨aßt. Umgekehrt ist jeder gemeinsame Teiler d von a und b, der eine Darstellung der Form d = α · a + β · b, (α, β ∈ Z) gestattet, ein gr¨oßter gemeinsamer Teiler von a und b. Beweis. O.B.d.A. sei a > b > 0. Zun¨ achst betrachten wir ein Verfahren (den sogenannten Euklidischen4 Al” 4
Benannt nach Euklid (bzw. Eukleides) von Alexandria (um 300 v. Chr.). Verfasser eines Sammelwerkes des mathematischen Wissens seiner Zeit, der Elemente“. ” Die Elemente“ waren 2000 Jahre lang die Grundlage f¨ ur den geometrischen Un” terricht an Schulen und Universit¨ aten.
70
2 Klassische algebraische Strukturen
gorithmus“) zur Berechnung von d, aus dem sich anschließend leicht unsere Behauptungen ergeben werden. Falls b|a gilt, haben wir offenbar d = b. Anderenfalls erhalten wir durch wiederholte Anwendung der Division mit Rest a = b · q1 + r1 , b = r1 · q2 + r2 , r1 = r2 · q3 + r3 , ... ...
0 < r1 < b, 0 < r2 < r1 , 0 < r3 < r2 , ......,
urliche Zahlen bezeichnen wobei die q1 , q2 , . . . , r1 , . . . , r1 , r2 , . . . gewisse nat¨ und die Reste r1 , r2 , . . . eine streng monoton fallende Folge bilden. Daher m¨ ussen wir nach endlich vielen Schritten zum Rest 0 gelangen. F¨ ur eine gewisse nat¨ urliche Zahl k ergibt sich also rk−4 rk−3 rk−2 rk−1
= = = =
rk−3 · qk−2 + rk−2 , rk−2 · qk−1 + rk−1 , rk−1 · qk + rk , rk · qk+1 .
0 < rk−2 < rk−3 , 0 < rk−1 < rk−2 , 0 < rk < rk−1 ,
oßter gemeinsamer Teiler von a und b: Liest man n¨amlich Die Zahl rk ist gr¨ die obigen Gleichungen von unten nach oben, so erh¨alt man der Reihe nach folgende Teilerbeziehungen: rk |rk−1 , rk |rk−2 , . . . , rk |r1 , rk |b, rk |a. Also ist rk ein gemeinsamer Teiler von a und b. F¨ ur jeden anderen gemeinsamen Teiler t ∈ N von a und b (also auch f¨ ur den gr¨oßten gemeinsamen Teiler) folgt aber, wenn man nunmehr die obigen Gleichungen von oben nach unten liest: t|r1 , t|r2 , . . . , t|rk . Damit ist gezeigt, daß es genau einen gr¨ oßten gemeinsamen Teiler (n¨amlich rk ) von a und b gibt. Zum Beweis der Gleichung rk = α·a+β ·b betrachten wir nochmals die obigen Gleichungen von unten nach oben. Aus der vorletzten Gleichung ergibt sich rk = rk−2 − rk−1 · qk . Mittels der dar¨ uberstehenden Gleichung erhalten wir hieraus rk = (1 + qk−1 · qk ) · rk−2 − qk · rk−3 . Ersetzt man nun rk−2 durch rk−4 − rk−3 · qk−2 und faßt zusammen, so kommt man zu einer Gleichung der Form rk = (. . .) · rk−4 + (. . .) · rk−3 .
2.2 Gruppen
71
Als n¨ achstes nutzt man aus, daß rk−3 = rk−5 − rk−4 · qk−3 ist, usw. Unser Verfahren liefert schließlich unter Verwendung der ersten Gleichung die Darstellung rk = α · a + β · b
mit gewissen α, β ∈ Z. Die Umkehrung ist klar, da aus
d = α · a + β · b ∧ d|a ∧ d|b folgt, daß jeder Teiler von a und b auch d teilt, womit d nur der gr¨oßte gemeinsame Teiler von a und b sein kann. Zur Erl¨ auterung des Euklidischen Algorithmus noch ein einfaches Beispiel Seien a = 38, b = 10. Dann gilt 38 = 10 · 3 + 8 10 = 8 · 1 + 2 8 = 2 · 4. Also haben wir 38⊓10 = 2. Zahlen α, β ∈ Z f¨ ur die Darstellung α·38+β·10 = 2 erh¨ alt man wie folgt 2 = 10 − 1 · 8 = 10 − 1 · (38 − 10 · 3) = 4 · 10 − 1 · 38, d.h., α = −1 und β = 4. Eine Folgerung aus Satz 2.2.3 ist: Satz 2.2.4 (Pn ; · (mod n)) ist eine Gruppe. Beweis. Man pr¨ uft leicht nach, daß (Pn ; · (mod n)) eine Halbgruppe mit dem Einselement [1] ist. Wir haben noch zu zeigen, daß f¨ ur jedes [a] ∈ Pn ein inverses Element existiert. Falls [a] ∈ Pn , ist a ⊓ n = 1. Folglich existieren nach Satz 2.2.3 gewisse α, β ∈ Z mit α · a + β · n = 1. Da die u ¨ bliche Addition und Multiplikation von ganzen Zahlen mit der Relation ≡n vertr¨aglich ist, erhalten wir [α] · [a] + [β] · [n] = [1]. = [0] Folglich ist [α] = [a]−1 .
Beispiel 6: Diedergruppen Vor der allgemeinen Definition betrachten wir zun¨achst folgende Aufgabe: Gegeben sei ein Quadrat, dessen Ecken wir mit 1, 2, 3, 4 numerieren. q3 4 q 1 q
q2
72
2 Klassische algebraische Strukturen
Man denke sich dieses Quadrat ausgeschnitten. Wie viele M¨oglichkeiten gibt es dann, dieses Quadrat wieder in das Blatt Papier einzupassen? Offenbar ist folgendes m¨ oglich: •
Quadrat herausnehmen, um 90◦ drehen und wieder einpassen: q3 q2 4 q 3 q 1 q
-
q2
4 q
q1
Diese Bewegung ist vollst¨ andig durch die Permutation 1234 d := 2341 •
beschrieben. Quadrat herausnehmen und umklappen (spiegeln): 4 q
q3
1 q
-
q2
1 q
4 q
q2
q3
Beschreiben l¨ aßt sich diese Bewegung durch die Permutation 1234 s := . 4321 •
Alle anderen m¨ oglichen Bewegungen sind durch gewisse Hintereinanderausf¨ uhrungen der beiden Bewegungen“ d und s beschreibbar. ” Also, die Menge aller Bewegungen“ (auch Deckbewegungen“ genannt) des ” ” Quadrats auf sich erh¨ alt man durch den Abschluß von {d, s} bez. der Operation 2 : {d, s} . Man rechnet nun leicht nach, daß {d, s} = {d, d2d, d2d2d, d2d2d2d, s, s2d, s2d2d, s2d2d2d}
gilt, wobei d2d = d2d2d2d = s2d2d =
1 2 3 4 3 1 1 1 2
4 2 2 2 1
1 3 3 3 4
2 , 4 4 (= 4 3
d2d2d = e),
s2d = s2d2d2d =
1 2 3 4 4123
,
1432
,
3214
.
1 2 3 4 1 2 3 4
Anhand der Verkn¨ upfungstafel der Halbgruppe ({d, s}; 2) stellt man außerdem fest, daß ({d, s}; 2) eine Gruppe aus 8 Elementen ist. So nebenbei
2.2 Gruppen
73
haben wir damit auch endlich unsere Ausgangsfrage beantwortet: Es gibt genau 8 verschiedene Deckbewegungen des Quadrats auf sich. Verallgemeinern l¨ aßt sich unser obiges Beispiel wie folgt: Wir betrachten ein regelm¨ aßiges n-Eck (n ≥ 3): 4 r H HH Hr 3 r 5
H H
b ϕ b r2 n rH HH Hr 1
ϕ = ((360)/n)◦
Jede m¨ ogliche Deckabbildung (Deckbewegung), die das n-Eck wieder auf sich u uhrt, ohne daß sich dabei L¨ angen oder Winkel ¨andern, erh¨alt man durch ¨ berf¨ Hintereinanderausf¨ uhrung der Bewegungen d und s, wobei d eine Drehung um den Winkel ((360)/n)◦ mittels 1 2 3 ... n − 1 n d= 2 3 4 ... n 1 und s eine Spiegelung um eine gewisse Achse verm¨oge s=
1 2 3 ... n − 1 n n n − 1 n − 2 ... 2 1
n−1 r @ @ @r n
r 1
r2
beschreibt. Die Menge all dieser Bewegungen {d, s} bildet eine Gruppe Dn = ({d, d2d, . . . , d2 . . . 2d, s, s2d, ..., s2 d2 . . . 2d }, 2), n-mal (n − 1)-mal
die sogenannte Diedergruppe. Untersucht werden solche Diedergruppen z.B. in der Kristallographie; sie gestatten jedoch auch eine Anwendung mathematischer Methoden auf Probleme der bildenden Kunst, wie z.B. Mustergestaltung und Ornamentik. Im Text der ¨ A.2.23 ist eine Anwendung dieser Gruppen in der Chemie erl¨autert. UA
74
2 Klassische algebraische Strukturen
Der nachfolgende Satz faßt einige elementare Folgerungen aus den Gruppenaxiomen (A), (E) und (I) zusammen. Satz 2.2.5 Es sei (G; ◦) eine Gruppe und a, b, x, y Elemente aus G. Dann gilt: (1) (a ◦ b)−1 = b−1 ◦ a−1 . (2) (a−1 )−1 = a. (3) Die Gleichungen a ◦ x = b und y ◦ a = b haben jeweils genau eine L¨osung x bzw. y. (4) Aus a ◦ x = b ◦ x (bzw. x ◦ a = x ◦ b) folgt stets a = b. Beweis. (1): Wir haben zu zeigen, daß das zu (a ◦ b)−1 inverse Element b−1 ◦ a−1 ist beziehungsweise daß die Gleichung (a ◦ b) ◦ (b−1 ◦ a−1 ) = e richtig ist. Wegen (A), (E) und a ◦ a−1 = b ◦ b−1 = e gilt (a ◦ b) ◦ (b−1 ◦ a−1 ) = a ◦ (b ◦ b−1 ) ◦ a−1 = a ◦ e ◦ a−1 = a ◦ a−1 = e. (2): Die Behauptung ist gleichwertig mit a−1 ◦ a = e, einer Gleichung, die aus Satz 2.2.1 folgt. (3): Offenbar gilt a ◦ x = b ⇐⇒ a−1 ◦ a ◦ x = a−1 ◦ b ⇐⇒ e ◦ x = a−1 ◦ b ⇐⇒ x = a−1 ◦ b. (4): Es gilt: a ◦ x = b ◦ x =⇒ a ◦ x ◦ x−1 = b ◦ x ◦ x−1 =⇒ a ◦ e = b ◦ e =⇒ a = b. Analog zeigt man: x ◦ a = x ◦ b =⇒ a = b. Einige Bezeichnungen: F¨ ur n ∈ N, (G; ◦) Gruppe und a ∈ G seien an a0 a−n
:= a ◦ a ◦. . . ◦ a, n-mal := e und := a−1 ◦ a−1◦ . . . ◦ a−1 . n-mal
Die Potenzrechnung in Gruppen verl¨ auft wie erwartet: Satz 2.2.6 Sei (G; ◦) eine Gruppe. Dann gilt f¨ ur beliebiges a ∈ G und beliebige n, m ∈ Z: an ◦ am = an+m und (an )−1 = (a−1 )n = a−n .
2.2 Gruppen
Beweis.
¨ UA.
Definitionen • •
75
Seien (G; ◦) eine Gruppe, a ∈ G und U ⊆ G.
Die M¨ achtigkeit |G| von G heißt Ordnung von G. Man schreibt anstelle von |G| auch ord G. Die kleinste Zahl n ∈ N, f¨ ur die an = e gilt, nennt man Ordnung von a und bezeichnet sie mit ord a. Falls ord a nicht existiert, schreibt man ord a = ∞. Beispiele – F¨ ur G = (Z4 ; + mod 4) gilt x ord x [0] 1 [1] 4 [2] 2 [3] 4 ,
•
da [0] = [0], [1]+[1]+[1]+[1] = [0], [2]+[2] = [0], [3]+[3]+[3]+[3] = [0] und diese Identit¨ aten f¨ ur weniger als die angegebenen Summanden nicht gelten. – Falls G = (Z; +), gilt f¨ ur jedes a ∈ Z\{0} ord a = ∞, da f¨ ur alle n ∈ N stets a + a + . . . + a = 0 ist. n-mal Die Menge U := {a1 ◦ a2 ◦ . . . ◦ ar | {a1 , . . . , ar } ⊆ U ∪ U −1 ∧ r ∈ N}, wobei U −1 := {u−1 | u ∈ U }, heißt Abschluß von U . Man beachte, daß der eben definierte Abschlußbegriff nicht mit dem aus dem Abschnitt u ¨ ber Halbgruppen u ¨ bereinstimmt! Beispiele – F¨ ur G = (Z; +) ist {1} = Z, {2} = {2, −2, 0, 4, −4, 6, −6, . . .}. – Falls G = (Z4 ; + mod 4), haben wir {[0]} = {[0]}, {[1]} = {[3]} = Z4 und {[2]} = {[0], [2]}.
Noch einige Bemerkungen zu den obigen Definitionen: • •
Anstelle von {x1 , x2 , . . . , xn } schreibt man oft nur x1 , x2 , . . . , xn . Wenn (G; ◦) eine endliche Gruppe ist, so gilt ord a = |{a}| f¨ ur jedes a ∈ G.
76
•
2 Klassische algebraische Strukturen
Ist U eine Teilmenge einer endlichen Gruppe, so haben wir U = {a1 ◦ a2 ◦ . . . ◦ ar | {a1 , a2 , . . . , ar } ⊆ U ∧ r ∈ N}, d.h., der Abschluß von U stimmt mit dem f¨ ur Halbgruppen definierten u ¨ berein.
Als n¨ achstes wollen wir uns mit Gruppen innerhalb einer Gruppe und einigen ihrer Eigenschaften befassen. Definition heißt
Es sei (G; ◦) eine Gruppe und U eine Teilmenge von G. Dann
(U ; ◦) Untergruppe von G :⇐⇒ (U ; ◦) erf¨ ullt die Gruppenaxiome (A), (E) und (I). Vor Beispielen zun¨ achst der Satz 2.2.7 (Untergruppenkriterium) (1) Es sei (G; ◦) eine endliche Gruppe, U ⊆ G und U = ∅. Dann gilt (U ; ◦) Untergruppe von G ⇐⇒ ◦ (auf U beschr¨ankt) ist innere Verkn¨ upfung auf U ⇐⇒ U ◦ U := {a ◦ b | a, b ∈ U } ⊆ U ⇐⇒ U = U. (2) Es sei (G; ◦) Gruppe und U ⊆ G. Dann gilt (U ; ◦) Untergruppe von G ⇐⇒ U ◦ U −1 ⊆ U, wobei U ◦ U −1 := {a ◦ b−1 | a, b ∈ U }. Beweis.
¨ (1): Es gen¨ ugt, die Aquivalenz (U ; ◦) Untergruppe von G ⇐⇒ U ◦ U ⊆ U
zu beweisen. =⇒“ ist trivial. ” ⇐=“: Es sei U = {u1 , u2 , . . . , um } und U ◦ U ⊆ U . Wegen U ◦ U ⊆ U und ” Satz 2.2.5, (4) gilt f¨ ur beliebiges i ∈ {1, 2, . . . , m}: ui ◦ U := {ui ◦ u1 , ui ◦ u2 , ur das Element ui ein Element uj mit . . ., ui ◦ um } = U . Folglich existiert f¨ ui ◦ uj = ui . Wegen Satz 2.2.5, (3) kann dieses uj nur das Einselement e der Gruppe G sein, womit (E) f¨ ur U nachgewiesen ist. Außerdem folgt aus ur U . ui ◦ U = U , daß ein uk mit ui ◦ uk = e in U existiert. Also gilt auch (I) f¨ (A) ist trivialerweise f¨ ur die Elemente von U erf¨ ullt. (2): =⇒“ ist offenbar richtig. ”
2.2 Gruppen
77
⇐=“: Da U = ∅, gibt es ein a ∈ U . Wegen U ◦ U −1 ⊆ U geh¨ort folglich ” a ◦ a−1 = e zu U , d.h., (E) ist f¨ ur U g¨ ultig. F¨ ur jedes x ∈ U existiert ferner x−1 , da e ◦ x−1 = x−1 ∈ U ◦ U −1 , womit (I) f¨ ur die Elemente von U erf¨ ullt ist. Außerdem ist ◦ eine innere Verkn¨ upfung in U , da f¨ ur beliebige x, y ∈ U nach ullt ist, dem oben Gezeigten gilt: x ◦ (y −1 )−1 = x ◦ y ∈ U . Da (A) offenbar erf¨ ist (U ; ◦) eine Gruppe. Beispiele (1.) Die einzigen Untergruppen von (Z4 ; + mod 4) sind {[0]}, {[0], [2]} und Z4 . (2.) Die symmetrische Gruppe (S3 ; 2) besitzt genau 6 Untergruppen: {s1 }, {s1 , s2 }, {s1 , s3 }, {s1 , s6 }, {s1 , s4 , s5 } und S3 . Definiert man die Inklusion ⊆ als teilweise reflexive Ordnung auf der Menge aller Untergruppen der alt man folgendes Hasse-Diagramm: S3 , so erh¨ S3 q Q A Q A Q A QQ q {s1 , s2 } q{s1 , s3 }Aq {s1 , s6Q } q {s1 , s4 , s5 } Q A Q Q A Q A Q q Q A {s1 } Satz 2.2.8 (Satz von Cayley5 ) Sei (G; ◦) eine endliche Gruppe. Dann existiert eine Untergruppe U der symmetrischen Gruppe (S|G| ; 2), die zu G isomorph ist. Beweis.
Eine beliebige Gruppe (G; ◦) mit G = {x1 , x2 , . . . , xn } und ◦ x1 x2 x1 x1 ◦ x1 x1 ◦ x2 x2 x2 ◦ x1 x2 ◦ x2 . . . . . . xn xn ◦ x1 xn ◦ x2
. . . xn . . . x1 ◦ xn . . . x2 ◦ xn ... . ... . . . . xn ◦ xn
ist offenbar isomorph zu einer Gruppe (G′ ; ◦) mit G′ := {1, 2, . . . , n} und 5
Arthur Cayley (1821–1895), englischer Mathematiker, der auch w¨ ahrend seiner T¨ atigkeit als Jurist Zeit f¨ ur mathematische Ver¨ offentlichungen hatte. Seine u ¨ ber 900 Publikationen befassen sich u.a. mit Invariantentheorie, Matrizen, algebraische Geometrie und Gruppentheorie.
78
2 Klassische algebraische Strukturen
◦ 1 2 ... n 1 1 ◦ 1 1 ◦ 2 ... 1 ◦ n 2 2 ◦ 1 2 ◦ 2 ... 2 ◦ n . . . ... . . . . ... . n n ◦ 1 n ◦ 2 ... n◦ n , wobei
∀i, j, k ∈ G′ : i ◦ j = k :⇐⇒ xi ◦ xj = xk .
Wegen Satz 2.2.5, (4) gilt {1 ◦ i, 2 ◦ i, . . . , n ◦ i} = {1, 2, . . . , n} f¨ ur beliebiges i ∈ {1, 2, . . . , n}. Außerdem m¨ ussen alle Spalten der oben stehenden Tabelle paarweise verschieden sein. Folglich kann man jedem i ∈ {1, 2, . . . , n} eine Permutation si aus Sn wie folgt mittels der Abbildung f zuordnen: 1 2 ... n f : i → si := . 1 ◦ i 2 ◦ i ... n ◦ i f ist offenbar eine bijektive Abbildung von {1, 2, . . . , n} auf {s1 , s2 , . . . , sn } und f¨ ur beliebige i, j ∈ {1, 2, . . . , n} gilt: 1 2 ... n 1 2 ... n f (i)2f (j) = 1◦i 2◦i ... n◦i 2 1◦j 2◦j ... n◦j 1 2 ... n = (1◦i)◦j (2◦i)◦j ... (n◦i)◦j (A) 1 2 ... n = 1◦(i◦j) 2◦(i◦j) ... n◦(i◦j) = f (i ◦ j). Die Abbildung f ist damit eine isomorphe Abbildung von (G′ ; ◦) auf die algebraische Struktur ({s1 , s2 , . . . , sn }; 2), die offenbar eine Untergruppe U der Gruppe Sn bildet. ≈ ≈ ≈ ¨ Da = eine Aquivalenzrelation ist, folgt aus G = G′ und G′ = U die Behauptung von Satz 2.2.8. Beispiel Es sei G = ({e, a, b}; ◦) und ◦ e a b
e e a b
a a b e
b b e a.
Zu G isomorph ist die Gruppe G′ = ({1, 2, 3}; ◦) mit ◦ 1 2 3
1 1 2 3
2 2 3 1
3 3 1 2.
2.2 Gruppen
79
Hieraus l¨ aßt sich dann eine isomorphe Abbildung ϕ von G auf eine Untergruppe der S3 wie folgt festlegen: 123 123 123 ϕ : e → = s1 , a → = s4 , b → = s5 , 123 231 312 wobei 2 s1 s4 s4
s1 s1 s4 s5
s4 s4 s5 s1
s5 s5 s1 s4 ,
d.h., G ist isomorph zu ({s1 , s4 , s5 }; 2).
¨ Ziel der nachfolgenden Uberlegungen sind eine Aussage u ¨ber die Ordnungen der Untergruppen einer gegebenen Gruppe. Zun¨achst jedoch zwei Definitionen •
Seien (G; ◦) eine Gruppe, U eine Untergruppe von G und x ∈ G. x ◦ U := {x ◦ u | u ∈ U } heißt Linksund U ◦ x := {u ◦ x | u ∈ U } heißt Rechtsnebenklasse von G nach U . Beispiel F¨ ur G = (S3 ; 2), U = {s1 , s2 } und x = s3 ist s3 2U = {s3 , s5 } und U 2s3 = {s3 , s4 }.
•
Eine Untergruppe U von G mit der Eigenschaft ∀x ∈ G : (bzw. ∀x ∈ G :
x◦U =U ◦x U = x−1 ◦ U ◦ x)
nennt man Normalteiler der Gruppe G. Beispiele (1) In einer abelschen Gruppe ist jede Untergruppe Normalteiler. (2) Die Untergruppe {s1 , s4 , s5 } der S3 ist Normalteiler. Satz 2.2.9 Sei U eine Untergruppe der Gruppe (G; ◦). Je zwei Links- (bzw. Rechts-) Nebenklassen von G nach U sind gleichm¨achtig und entweder gleich oder disjunkt. Außerdem gilt f¨ ur beliebige x, y ∈ G: x ◦ U = y ◦ U ⇐⇒ y −1 ◦ x ∈ U und
U ◦ x = U ◦ y ⇐⇒ y ◦ x−1 ∈ U.
Beweis. Es gen¨ ugt, die Behauptungen f¨ ur Linksnebenklassen zu beweisen. F¨ ur x, y ∈ G ist die Abbildung f : x ◦ U → y ◦ U, x ◦ u → y ◦ u
80
2 Klassische algebraische Strukturen
bijektiv, da sie offensichtlich nach Definition surjektiv ist und sich aus f (x ◦ u1 ) = f (x ◦ u2 ) mittels Satz 2.2.5, (4) u1 = u2 ergibt. Also sind die Mengen x ◦ U und y ◦ U gleichm¨ achtig. Angenommen, (x ◦ U ) ∩ (y ◦ U ) = ∅ und x, y ∈ U . Dann existieren gewisse u1 , u2 ∈ U mit x ◦ u1 = y ◦ u2 . Folglich haben wir x = y ◦ u2 ◦ u−1 1 und damit x ◦ U ⊆ y ◦ U und y = x ◦ u1 ◦ u−1 2 und damit y ◦ U ⊆ x ◦ U, woraus sich unmittelbar x ◦ U = y ◦ U ergibt. Seien nun x, y ∈ G beliebig gew¨ ahlt. Gilt x◦U = y ◦U , so existieren u1 , u2 ∈ U ∈ U folgt. Ist umgekehrt mit x ◦ u1 = y ◦ u2 , woraus y −1 ◦ x = u2 ◦ u−1 1 y −1 ◦ x ∈ U , so gilt (y −1 ◦ x) ◦ U = U und damit x ◦ U = y ◦ U . Als unmittelbare Folgerung aus Satz 2.2.9 erh¨alt man: Lemma 2.2.10 Die Links- (bzw. Rechts-)Nebenklassen a ◦ U (bzw. U ◦ a) f¨ ur a ∈ G bilden eine Zerlegung der Menge G. Z.B. gilt f¨ ur G = (Z6 ; + mod 6) und U = {[0], [3]}: Z6 = {[0], [3]} ∪ ([1] + {[0], [3]}) ∪ ([2] + {[0], [3]}) = {[0], [3]} ∪ {[1], [4]} ∪ {[2], [5]}. Aus dieser Folgerung und der Gleichm¨ achtigkeit von Nebenklassen einer Gruppe G nach der Untergruppe U erh¨ alt man als weitere Folgerung aus Satz 2.2.9 den Satz 2.2.11 (Satz von Lagrange6 ) Seien G eine endliche Gruppe und U eine Untergruppe von G. Bezeichne außerdem |G : U | (Index von G in U genannt) die Anzahl der verschiedenen Rechts- (bzw. Links-) Nebenklassen von G nach U . Dann gilt |G| = |U | · |G : U |.
Eine Gruppe der Ordnung 6 kann also nur Untergruppen der Ordnung 1, 2, 3 oder 6 haben, aber keine mit etwa 4 oder 5 Elementen. Einige Folgerungen aus Satz 2.2.11 fassen wir zusammen im 6
Joseph Louis Lagrange (1736–1813), franz¨ osischer Mathematiker, der grundlegende Arbeiten zur Mechanik und Infinitesimalrechnung schrieb.
2.2 Gruppen
81
Satz 2.2.12 Seien G eine endliche Gruppe, U eine Untergruppe von G, a ∈ G und bezeichne e das Einselement von G. Dann gilt (1) |U | | |G|; (2) ord a | |G|; (3) Ist |G| ∈ P, so sind {e} und G die einzigen (die sogenannten trivialen) Untergruppen von G. Mit Hilfe der oben eingef¨ uhrten Bezeichnungen und Begriffe lassen sich auch die Homomorphismen auf Gruppen charakterisieren. Es ist zu empfehlen, sich vor dem nachfolgenden Satz noch einmal das Beispiel von Seite 65 eines Homomorphismus anzusehen. Satz 2.2.13 (Homomorphiesatz f¨ ur Gruppen) (1) Sei die Gruppe (G′ ; ◦′ ) homomorphes Bild der Gruppe G = (G; ◦), d.h., es existiert eine surjektive Abbildung f : G → G′ mit ∀x, y ∈ G : f (x ◦ y) = f (x) ◦′ f (y). Dann gilt (a) kerf := {x ∈ G | f (x) = e′ } ( Kern von f“), wobei e′ das Einsele” ment von G′ bezeichnet, ist ein Normalteiler N der Gruppe G und (b) die Menge G/N := {x ◦ N | x ∈ G} (Faktorgruppe von G nach N genannt) bildet zusammen mit der Operation ◦, die definiert ist durch ∀A, B ∈ G/N : A ◦ B := {a ◦ b | a ∈ A ∧ b ∈ B}, eine Gruppe, die zur Gruppe G’ isomorph ist. (2) Ist umgekehrt N ein Normalteiler von G, so erh¨alt man durch fN : G → G/N, x → x ◦ N eine homomorphe Abbildung von G auf die Faktorgruppe G/N . Beweis. (1): Wir zeigen zun¨ achst, daß N := kerf eine Untergruppe von G ist. Dazu bezeichne e das Einselement von G. F¨ ur alle x, y ∈ N haben wir offenbar: f (x ◦ y) = f (x) ◦′ f (y) = e′ ◦′ e′ = e′ , womit N ◦ N ⊆ N . ur beliebige x ∈ G gilt ferner f (e) = e′ . Wegen f (x) = f (x ◦ e) = f (x) ◦′ f (e) f¨ ′ Außerdem haben wir f¨ ur x ∈ N : e = f (e) = f (x ◦ x−1 ) = f (x) ◦′ f (x−1 ) = ′ ′ −1 −1 e ◦ f (x ) = f (x ), woraus sich N −1 ⊆ N ergibt. Hieraus und aus N ◦ N ⊆
82
2 Klassische algebraische Strukturen
N folgt nun, daß N ◦ N −1 ⊆ N ist. Nach dem Untergruppenkriterium ist damit N ≤ G. Die Normalteilereigenschaft (∀x ∈ N : x ◦ N ◦ x−1 = N ) der Gruppe N ergibt sich aus f (x ◦ n ◦ x−1 ) = f (x) ◦ f (n) ◦ f (x−1 ) = f (x) ◦′ e′ ◦′ f (x−1 ) = f (x ◦ x−1 ) = e′ f¨ ur beliebige n ∈ N . Also gilt (a). (b): Aus der Definition eines Normalteilers und der Eigenschaft N ◦ N = N f¨ ur Gruppen N erh¨ alt man f¨ ur beliebige x, y ∈ G : (x ◦ N ) ◦ (y ◦ N ) = (x ◦ N ) ◦ (N ◦ y) = x ◦ ((N ◦ N ) ◦ y) = x ◦ (N ◦ y) = x ◦ (y ◦ N ) = (x ◦ y) ◦ N , womit ◦ eine innere Verkn¨ upfung auf der Menge G/N ist. Von der Abbildung gf : G/N → G′ , x ◦ N → f (x)
zeigt man nun leicht, daß sie die algebraische Struktur (G/N ; ◦) auf G′ isomorph abbildet, woraus (b) folgt: Wegen gf (x ◦ N ) = gf (y ◦ N ) =⇒ f (x) = f (y) =⇒ f (x ◦ y −1 ) = f (x) ◦′ (f (y))−1 = e′ =⇒ x ◦ y −1 ∈ N =⇒ N ◦ (x ◦ y −1 ) = N =⇒ N ◦ x = N ◦ y =⇒ x◦N =y◦N ist gf bijektiv und wegen ∀x ◦ N, y ◦ N ∈ G/N : gf ((x ◦ N ) ◦ (y ◦ N )) = gf ((x ◦ y) ◦ N ) = f (x ◦ y) = f (x) ◦′ f (y) = gf (x ◦ N ) ◦′ gf (y ◦ N ).
ein Isomorphismus von G/N auf G′ . (2): F¨ ur jeden Normalteiler N von G ist die Abbildung fN : G → G/N, x → x ◦ N
offenbar surjektiv und es gilt f¨ ur beliebige x, y ∈ G: fN (x ◦ y) = (x ◦ y) ◦ N = x ◦ (y ◦ N ) = x ◦ (N ◦ y) = x ◦ (N ◦ N ◦ y) = (x◦N )◦(N ◦y) = (x◦N )◦(y ◦N ) = f (x)◦f (y), womit f ein Homomorphismus von G auf G/N ist.
2.3 Ringe und Ko ¨rper Wir spezialisieren zun¨ achst unseren Begriff der Gruppe weiter zu dem des Ringes. Definition Sei R eine nichtleere Menge, auf der zwei innere Verkn¨ upfungen erkl¨ art sind, die wir mit + und · bezeichnen wollen. + und · m¨ ussen dabei nicht mit der gew¨ ohnlichen Addition und Multiplikation identisch sein! Dann heißt (R; +, ·) Ring :⇐⇒ (R; +) ist abelsche Gruppe (R; ·) ist Halbgruppe ∀x, y, z ∈ R : x · (y + z) = x · y + x · z ∧ (x + y) · z = x · z + y · z.
∧ ∧ (D)
2.3 Ringe und K¨ orper
83
(R; +, ·) kommutativer Ring :⇐⇒ (R; +, ·) ist Ring und (R; ·) eine kommutative Halbgruppe. Beispiele (1.) (Z; +, ·) ist ein Prototyp“ f¨ ur Ringe. ” (2.) (Zn ; + (mod n), · (mod n)) ist f¨ ur jedes n ∈ N ein Ring. Beide oben angegebenen Ringe sind auch kommutative Ringe. Wir vereinbaren folgende Bezeichnungen: • • •
Anstelle von (R; +, ·) schreiben wir oft kurz R. Das Einselement von (R; +) wird mit 0 bezeichnet. F¨ ur jedes Element x der Gruppe (R; +) bezeichnen wir das inverse Element von x mit −x.
Elementare Rechenregeln in Ringen sind zusammengefaßt im
Satz 2.3.1 Sei (R; +, ·) ein Ring. Dann gilt f¨ ur beliebige x, y ∈ R:
(1) 0 · x = x · 0 = 0; (2) x · (−y) = (−x) · y = −(x · y); (3) (−x) · (−y) = x · y.
Beweis. (1): Wegen (E) und (D) gilt 0 · x = (0 + 0) · x = 0 · x + 0 · x. Indem man 0 · x + (−0 · x) (= 0) = 0 · x + 0 · x + (−0 · x) = 0 · x hieraus schlußfolgert, erh¨ alt man 0 · x = 0. Analog zeigt man x · 0 = 0. (2): Offenbar gilt 0 = x · 0 = x · (y + (−y)) = x · y + x · (−y), womit x · (−y) = −(x · y) ist. Analog l¨ aßt sich −(x · y) = (−x) · y begr¨ unden. (3): Indem man (2) zweimal verwendet und Satz 2.2.5, (2) beachtet, erh¨alt man (−x) · (−y) = −(x · (−y)) = −(−(x · y)) = x · y. Besonders wichtig werden f¨ ur uns nachfolgend gewisse spezielle Ringe (die sogenannten K¨ orper) sein. Definition Es sei K eine nichtleere Menge und +, · zwei innere Verkn¨ upfungen in K. Dann heißt (K; +, ·) K¨ orper :⇐⇒ (K; +, ·) Ring ∧ (K\{0}; ·) kommutative Gruppe. Da K \ {0} = ∅, enth¨ alt die Menge K eines K¨ orpers mindestens zwei verschiedene Elemente. Beispiele Offenbar sind (Q; +, ·) und (R; +, ·) (+, · bezeichnen dabei die u orper. Wegen der Folgerung aus Satz ¨ bliche Addition und Multiplikation) K¨ 2.2.3 ist f¨ ur jedes p ∈ P die algebraische Struktur (Zp ; + (mod p), · (mod p)) ein K¨ orper (siehe dazu auch Satz 2.3.3). Definitionen •
Es sei (R; +, ·) ein kommutativer Ring und x ∈ R\{0}. Dann heißt x Nullteiler von R :⇐⇒ ∃y ∈ R\{0} : x · y = 0. Beispiel F¨ ur (Z4 ; +(mod 4), ·(mod 4)) ist [2] Nullteiler, da [2] · [2] = [0].
84
•
2 Klassische algebraische Strukturen
Einen kommutativen Ring nennt man nullteilerfrei :⇐⇒ ∀x, y ∈ R : x · y = 0 =⇒ x = 0 ∨ y = 0.
Satz 2.3.2 (1) Sei (R; +, ·) ein endlicher kommutativer Ring mit dem Einselement 1 (bez. ·) und sei R nullteilerfrei. Dann ist (R; +, ·) ein K¨orper. (2) Jeder K¨orper ist nullteilerfrei. Beweis. (1): Wir haben zum Beweis nur zu zeigen, daß f¨ ur jedes x ∈ R\{0} ein x−1 mit x · x−1 = 1 existiert. Dazu betrachten wir die Menge x · R := {x · y | y ∈ R} und zeigen |x · R| = |R|. Angenommen, |x · R| = |R|. Dann existieren y1 , y2 ∈ R mit x · y1 = x · y2 und y1 = y2 . Folglich ist x · (y1 − y2 ) = 0 und (wegen x = 0 sowie der Nullteilerfreiheit von R) y1 = y2 , im Widerpruch zur Annahme. Also gilt |x · R| = |R| und damit (wegen der Endlichkeit von R) auch x · R = R, womit f¨ ur x ein x−1 ∈ R mit x · x−1 = 1 existiert. (2): Besitzt ein Ring Nullteiler, so ist · keine innere Verkn¨ upfung auf der Menge R\{0}. Also muß ein K¨ orper nullteilerfrei sein. Satz 2.3.3 F¨ ur alle n ∈ N gilt: (Zn ; + (mod n), · (mod n)) ist K¨orper ⇐⇒ n ∈ P. Beweis. ⇐=“ folgt aus Abschnitt 2.2. ” =⇒“: Sei (Zn ; + (mod n), · (mod n)) ein K¨ orper und angenommen, n ∈ / P. ” Dann gibt es gewisse u, v ∈ N\{1} mit u < n, v < n und u · v = n. Folglich haben wir [u] · [v] = [0], im Widerspruch zu Satz 2.3.2, (2). Bemerkung Im Band 2 werden wir – in Vorbereitung auf einen Abschnitt u ¨ ber Codierungstheorie – zeigen, daß die Anzahl |K| der Elemente eines endlichen K¨ orpers K nur eine Primzahlpotenz pn sein kann und daß zu jeder ¨ der BezeichnunPrimzahlpotenz pn bis auf Isomorphie (d.h., bis auf Andern gen) genau ein K¨ orper mit pn Elementen existiert. Abschließend wollen wir uns ausf¨ uhrlich mit dem K¨ orper der komplexen Zahlen befassen. Die Menge der komplexen Zahlen C ist eine Erweiterung“ der Menge R: ”
# C R "
2.3 Ringe und K¨ orper
85
!
So wie man z.B. Z zu Q erweitert hat, um jede Gleichung der Form a · x = b mit a = 0 l¨ osen zu k¨ onnen, erweitert man R zu C, um z.B. L¨osungen x f¨ ur jede Gleichung der Form xn + a = 0
(a ∈ R, n ∈ N)
zu haben. Komplexe Zahlen kann man auf mehrere Weisen einf¨ uhren. Wir gehen zun¨achst den historischen Weg: Man f¨ uhrt die neue Gr¨ oße i
( imagin¨ are Einheit“) ” als eine L¨ osung der Gleichung x2 = −1 ein, d.h., es gilt i2 = −1, und bezeichnet z =a+b·i
(a, b ∈ R)
als komplexe Zahl mit dem Realteil a (Bezeichnung: a = Re z) und dem Imagin¨ arteil b (Bezeichnung: b = Im z). Die Menge aller komplexen Zahlen ist dann C := {a + b · i | a, b ∈ R}.
Mit den komplexen Zahlen rechnet man, von der Regel i2 = −1 abgesehen, ganz so wie man es mit den reellen Zahlen gew¨ohnt ist. Die Addition und die Multiplikation von komplexen Zahlen verl¨ auft demnach wie folgt: (a + b · i) + (c + d · i) = (a + c) + (b + d) · i, (a + b · i) · (c + d · i) = (a · c − b · d) + (a · d + b · c) · i. Außerdem ist z.B., falls a = 0 oder b = 0, (a + b · i)−1 =
a2
−b a + 2 ·i 2 +b a + b2
wenn man formal (a+b·i)−1 =
a−b·i a−b·i 1 a −b = = 2 = 2 + 2 ·i 2 2 a+b·i (a + b · i) · (a − b · i) a +b a + b a + b2
rechnet. Bei dieser naiven Vorgehensweise bleibt offen, was denn eigentlich i oder allgemeiner eine komplexe Zahl ist. Wir wollen deshalb noch eine Definition der komplexen Zahlen angeben, die nur auf bekannten Begriffen aufbaut.
86
2 Klassische algebraische Strukturen
Algebraische Konstruktion der komplexen Zahlen Dazu betrachten wir die Menge R × R = {(a, b) | a, b ∈ R}, auf der wir als innere Verkn¨ upfungen eine Addition ⊕ und eine Multiplikation ⊙ einf¨ uhren: (a, b) ⊕ (c, d) := (a + c, b + d), (a, b) ⊙ (c, d) := (a · c − b · d, a · d + b · c) (a, b, c, d ∈ R; +, · bezeichnen die u uft nun ¨ blichen Operationen auf R). Man pr¨ leicht nach, daß (R × R; ⊕) eine abelsche Gruppe mit dem neutralen Element (0,0) ist. Ferner gilt (1,0) ist das Einselement von ((R × R)\{(0, 0)}; ⊙) und (a/(a2 + b2 ), −b/(a2 + b2 )) ist das zu (a, b) ∈ (R × R)\{(0, 0)} inverse Element. Durch Nachrechnen u ur ⊙ und (D) ¨ berzeugt man sich davon, daß auch (A) f¨ ¨ A.2.26): f¨ ur ⊕, ⊙ gilt. Damit ist bewiesen (siehe auch UA Satz 2.3.4 (R × R; ⊕, ⊙) ist ein K¨orper, den man K¨orper der komplexen Zahlen nennt und seine Elemente komplexe Zahlen. Man erkennt unschwer, daß a + b · i nur eine andere Schreibweise f¨ ur das Paar (a, b) reeller Zahlen ist. (Genauer: (C; +, ·) ist isomorph zu (R × R; ⊕, ⊙). Dabei ist die Isomorphie von Ringen wie folgt definiert: Seien (R; +, ·) und (R′ ; +′ , ·′ ) Ringe. Man sagt R ist isomorph zu R′ :⇐⇒ ∃ bijektive Abbildung f : R → R′ : ∀x, y ∈ R : f (x + y) = f (x) +′ f (y) f (x · y) = f (x) ·′ f (y). )
∧
Wir werden deshalb komplexe Zahlen nicht in Form von Paaren schreiben, sondern immer in der Form a + b · i, weil diese Schreibweise suggestiver und den Rechenoperationen besser angepaßt ist. Die Beschreibung durch Paare ist dazu gut, die komplexen Zahlen aus etwas schon Bekannten, n¨amlich den reellen Zahlen, zu konstruieren sowie sich eine geometrische Interpretation der komplexen Zahlen zu u ¨ berlegen. Komplexe Zahlen z = a + b · i lassen sich n¨amlich in einer Ebene mit rechtwinkligem Koordinatenkreuz als Punkte mit Koordinaten a und b darstellen: y 6 pz = a+b·i b a
-x
Man erh¨ alt auf diese Weise eine Veranschaulichung von C als komplexe Zahlenebene. Dabei bezeichnet man die x-Achse als reelle Achse“ und die y” Achse als imagin¨ are Achse“. ”
2.3 Ringe und K¨ orper
87
Mit Hilfe der komplexen Zahlenebene lassen sich auch die beiden nachfolgenden Begriffe interpretieren. Definitionen •
z := a − b · i, falls z = a + b · i, heißt die zu z konjugierte komplexe Zahl. y
6
qz
-x qz
•
√ |z| := a2 + b2 , wobei z = a + b · i, nennt man Betrag von z ( Abstand ” zum Punkt (0,0)“). y 6 q " z =a+b·i |z| "" " b " " " " -x a
Satz 2.3.5 F¨ ur beliebige komplexe Zahlen z, z ′ gilt: (1) (2) (3) (4) (5) (6) (7) (8)
z = z, z + z ′ = z + z ′ , z · z ′ = z · z ′ ; Re z = (z + z)/2; Im z = ((z − z)/2) · i; |z|2 = z · z; |z| = |z|; z −1 = z/(|z|2 ) f¨ ur z = 0; |z · z ′ | = |z| · |z ′ |; |z + z ′ | ≤ |z| + |z ′ | ( Dreiecksungleichung“). ”
Beweis.
¨ A.2.34. UA
Obige geometrische Deutung der komplexen Zahlen z liefert auch folgende trigonometrische Darstellung von z = 0:
88
2 Klassische algebraische Strukturen
y
6
q " z =a+b·i " " " b "ϕJ " E " -x a
Sei ϕ der Winkel (von uns in der Regel im Bogenmaß angegeben) zwischen der x-Achse und der reellen Geraden durch z und dem Nullpunkt. Dabei messen wir den Winkel stets in positiver Umlaufrichtung“, d.h., entgegen ” dem Uhrzeigersinn. Dann gilt: a = |z| · cos ϕ, b = |z| · sin ϕ
und
z = |z| · (cos ϕ + i · sin ϕ) H¨ aufig schreibt man auch z = r · (cos ϕ + i · sin ϕ), wobei r := |z|. Diese trigonometrische Darstellung von komplexen Zahlen ist sehr brauchbar beim Multiplizieren, Potenzieren und bei dem (noch zu erl¨auternden) Wurzelziehen von komplexen Zahlen. Dazu gleich mehr. Zun¨ achst jedoch die geometrische Deutung der Grundrechenarten“ ” f¨ ur komplexe Zahlen. Wir beginnen mit der Addition: y
z +q z ′ ′ z q b′ z q b a a + a′ a′
b + b′ 6
-x
Die Addition entspricht demnach der Addition von Vektoren der Ebene nach der Parallelogrammregel (siehe dazu auch Abschnitt 4.1). Definiert man die Subtraktion − durch z − z ′ := z + (−z ′ ) so gilt f¨ ur diese Subtraktion:
(z, z ′ ∈ C),
2.3 Ringe und K¨ orper
zq y6 a C aaa aa C aa C q aq z ′ − z′ aza C aa C aa aa C -x C a
89
Offenbar entspricht dies der Subtraktion von Vektoren (siehe Kapitel 4). Wir kommen nun zur geometrischen Interpretation der Multiplikation zweier Zahlen z und z’ aus C \ {0}: Sind z und z’ in trigonometrischer Form z = r · (cos ϕ + i · sin ϕ) z ′ = r′ · (cos ϕ′ + i · sin ϕ′ ) gegeben, so erh¨ alt man mittels der Additionstheoreme sin(α + β) = cos α · sin β + sin α · cos β cos(α + β) = cos α · cos β − sin α · sin β und durch simple Rechnung z · z ′ = r · r′ (cos(ϕ + ϕ′ ) + i · sin(ϕ + ϕ′ )). Damit ist die geometrische Deutung der Multiplikation komplexer Zahlen klar:
Die Winkel ϕ, ϕ′ zur x-Achse werden addiert und die Betr¨age |z|, |z ′| multipliziert, womit z ·z ′ eine Art Drehstreckung“ bzw. Drehstauchung“ beschreibt. ” ” Definiert man die Division komplexer Zahlen aus C \ {0} durch
90
2 Klassische algebraische Strukturen
z : z ′ := z · (z ′ )−1 , so gilt analog zu oben r · (cos(ϕ − ϕ′ ) + i · sin(ϕ − ϕ′ )). r′ Mittels vollst¨ andiger Induktion kann man außerdem aus obiger Formel f¨ ur z · z ′ auf die sogenannte Moivresche Formel 7 f¨ ur z n (z ∈ C \ {0}, n ∈ N) schließen: . . · z = rn · (cos n · ϕ + i · sin n · ϕ) z n := z · . z : z′ =
n-mal
Als n¨ achstes wollen wir s¨ amtliche L¨ osungen z ∈ C der Gleichung z n = a mit a ∈ C \ {0}
bestimmen. Dazu w¨ ahlen wir a in trigonometrischer Darstellung a = R · (cos τ + i · sin τ ). Eine L¨ osung z von z n = a sei mit r · (cos ϕ + i · sin ϕ) bezeichnet. Dann gilt (unter Verwendung der Moivreschen Formel): z n = (r(cos ϕ + i · sin ϕ))n = rn (cos n · ϕ + i · sin n · ϕ) = R(cos τ + i · sin τ ). Folglich rn = R, d.h., r =
√ n R
und n · ϕ = τ + 2 · π · k mit k ∈ Z (wegen der Periodizit¨ at der cos- und sin-Funktionen). Damit muß eine L¨ osung z von z n = a von der Gestalt √ τ +2·π·k τ +2·π·k n + i · sin ) =: zk R · (cos n n f¨ ur gewisses k ∈ Z sein. Falls man k ganz Z durchlaufen l¨aßt, erh¨alt man mittels obiger Formel genau n verschiedene L¨osungen z0 , z1 , . . . , zn−1 n
von z = a, da Fassen wir zusammen: 7
zi = zj ⇐⇒ i ≡n j.
Abraham de Moivre (1667 - 1754), franz¨ osischer Mathematiker, der nach England emigrierte.
2.3 Ringe und K¨ orper
91
Satz 2.3.6 Es sei a ∈ C\{0} und a = R·(cos τ +i·sin τ ) die trigonometrische Darstellung von a. Dann besitzt die Gleichung z n = a genau n verschiedene L¨osungen √ τ +2·π·k τ +2·π·k n + i · sin ) zk := R · (cos n n √ mit k = 0, 1, . . . , n − 1, die man n-te Wurzeln aus a nennt und mit n a oder a1/n bezeichnet.8 Die diesen Wurzeln entsprechenden Punkte√in der komplexen Zahlenebene liegen alle auf einem Kreis mit dem Radius n R und dem Mittelpunkt im Koordinatenursprung und sind die Ecken eines diesem Kreise einbeschriebenen regelm¨aßigen n-Ecks (siehe Zeichnung).
Beispiele (1.) Die L¨ osungen von z 2 = −1 (= cos π + i · sin π) sind
z0 = cos π/2 + i · sin π/2 = i und z1 = cos 3π/2 + i · sin 3π/2 = −i.
(2.) Außer z0 = 1 hat die Gleichung z3 = 1 8
√ Man beachte: In R bezeichnet n a (a > 0) die √ eindeutig bestimmte positive n jede Zahl, deL¨ osung von x = a. Im Gegensatz dazu meint n a im Komplexen √ ren n-te Potenz gleich z ist. Das hat z.B. zur Folge, daß in R 2 1 die 1, dagegen in C 1 oder −1 bedeutet. Trotzdem ist eine an sich erforderliche Unterscheidung der Wurzelsymbole nicht u allen hat man demzufolge den zugrunde¨ blich. In Zweifelsf¨ liegenden K¨ orper (R oder C) anzugeben.
92
2 Klassische algebraische Strukturen
noch die L¨ osungen √ z1 = cos 2π/3 + i · sin 2π/3 = (−1 + i · √3)/2 und z2 = cos 4π/3 + i · sin 4π/3 = (−1 − i · 3)/2, die sich geometrisch wie folgt beschreiben lassen: y
z'$ 6 3 r b b br - x " " 1 = z0 r" &% z2
(3.) Zur Bestimmung der L¨ osungen von z2 = 1 + i u achst leicht, daß ¨berlegt man sich zun¨ √ 1 + i = 2 · (cos π/4 + i · sin π/4). Folglich sind √ 4 z0 = √ 2(cos π/8 + i · sin π/8) z1 = 4 2(cos 9π/8 + i · sin 9π/8) die gesuchten L¨ osungen:
und
y
6 '$ z0 r x r z1&%
Eine allerletzte Bemerkung (ohne Beweis) u ¨ ber komplexe Zahlen. Zwecks n¨ aherer Berechnung von sin- und cos-Werten bzw. Werten der ex -Funktion benutzt man sogenannte Potenzreihen (Taylor-Reihen). Es gilt n¨ amlich: cos x = 1 − sin x = x − e
x
x2 2! 3
x 3!
+ +
= 1+x+
x4 4! 5
x 5!
x2 2!
− −
+
x6 6! 7
x 7!
x3 3!
+ +
+
x8 8! 9
x 9!
x4 4!
− +..., − +...,
+ ...
f¨ ur beliebige x ∈ R (siehe dazu z.B. [Fre-F 85] oder [Man-K 66]).
2.4 Verb¨ ande und Boolesche Algebren
93
W¨ ahlt man in obigen Reihen x ∈ C, so konvergieren diese Reihen immer noch f¨ ur beliebige x, so daß man mittels dieser Reihen cos, sin und die Exponentialfunktion als Funktionen einer komplexen Ver¨ anderlichen definieren kann. Speziell gilt damit eiϕ = 1 + i · ϕ +
(i · ϕ)2 (i · ϕ)3 (i · ϕ)4 + + +.... 2! 3! 4!
Auspotenzieren und Umordnen ergibt eiϕ = 1 + i · ϕ − = (1 −
ϕ2 2!
+
ϕ2 2! ϕ4 4!
−i·
ϕ3 3!
+
ϕ4 4!
+i·
− + . . .) + i · (ϕ −
ϕ5 5! ϕ3 3!
− ... +
ϕ5 5!
− + . . .)
= cos ϕ + i · sin ϕ, womit wir die sehr wichtige Eulersche Formel ei·ϕ = cos ϕ + i · sin ϕ erhalten haben. Multipliziert man die Eulersche Formel mit r, so erh¨ alt man die Exponentialdarstellung f¨ ur z = r(cos ϕ + i · sin ϕ): z = r · ei·ϕ .
2.4 Verb¨ ande und Boolesche Algebren Nachfolgend sollen kurz zwei algebraische Strukturen vorgestellt werden, f¨ ur die es eine Vielzahl von Anwendungen gibt und die wir deshalb im Band 2 noch etwas ausf¨ uhrlicher behandeln werden. Wir beginnen mit den Definitionen eines Verbandes Es gibt im wesentlichen zwei verschiedene Standardwege einen Verband zu definieren. Erste Definition eines Verbandes: Sei L eine nichtleere Menge, auf der zweistellige Operationen ∨ ( Vereini” gung“) und ∧ ( Durchschnitt“) erkl¨ art sind. L := (L; ∨, ∧) heißt Verband ” (engl.: lattice), wenn in L f¨ ur beliebige x, y, z ∈ L folgende Identit¨aten gelten: (L1a) (L1b) (L2a) (L2b) (L3a) (L3b) (L4a) (L4b)
x ∨ y = y ∨ x, x∧y =y∧x x ∨ (y ∨ z) = (x ∨ y) ∨ z, x ∧ (y ∧ z) = (x ∧ y) ∧ z x ∨ x = x, x∧x=x x ∨ (x ∧ y) = x, x ∧ (x ∨ y) = x
(Kommutativit¨at), (Assoziativit¨at), (Idempotenz), (Absorption).
94
2 Klassische algebraische Strukturen
F¨ ur die zweite Definition eines Verbandes ben¨otigen wir noch einige Begriffe und Bezeichnungen: Definition Bezeichne A eine nichtleere Menge und sei ≤ eine reflexive teilweise Ordnung auf A (siehe Kapitel 1). Das Paar (A; ≤) nennt man dann partiell geordnete Menge (engl.: partially ordered set) oder kurz Poset. In Beispielen werden wir Posets zumeist durch Hasse-Diagramme angeben. Eine Poset P , die zus¨ atzlich noch die Bedingung a ≤ b oder b ≤ a f¨ ur beliebige a, b ∈ P erf¨ ullt, heißt total geordnete Menge oder linear geordnete Menge oder kurz Kette. F¨ ur Posets verwenden wir im Fall a ≤ b und a = b auch die (¨ ubliche) Schreibweise a < b. Außerdem schreiben wir manchmal anstelle von a ≤ b auch b ≥ a. Definition Bezeichne A eine Teilmenge einer Poset P = (P ; ≤). Unter dem Supremum von A (Bezeichnung: supA) versteht man ein p aus P mit folgenden Eigenschaften: (1) ∀a ∈ A : a ≤ p; (2) (∀a ∈ A : a ≤ b) =⇒ p ≤ b. Bemerkung Das Supremum einer Menge A existiert i.allg. nicht f¨ ur beliebiges A. Es sei z.B. P = {0, 1, 2, 3, 4} und ≤ durch folgendes Hasse-Diagramm definiert: 4s
J
J Js 2 s
3 Z Z Z Zs1 0 s Dann existiert sup{0, 1} nicht, da (2) von keinem Element aus P erf¨ ullt wird. Definition Bezeichne A eine Teilmenge einer Poset P = (P ; ≤). Unter dem Infimum von A (Bezeichnung: infA) versteht man ein p aus P mit folgenden Eigenschaften: (1) ∀a ∈ A : p ≤ a; (2) (∀a ∈ A : b ≤ a) =⇒ b ≤ p. Zweite Definition eines Verbandes: Eine Poset (L; ≤) heißt Verband, wenn f¨ ur beliebige a, b ∈ L stets sowohl sup{a, b} als auch inf{a, b} existieren.
2.4 Verb¨ ande und Boolesche Algebren
95
Satz 2.4.1 Es gilt: (1) Wenn (L; ∨, ∧) ein Verband nach der ersten Definition ist, so erh¨alt man durch a ≤ b :⇐⇒ a = a ∧ b eine partielle Ordnung ≤, die zusammen mit L einen Verband nach der zweiten Definition bildet. (2) Ist umgekehrt (L; ≤) ein Verband nach der zweiten Definition, so kann man zwei zweistellige Operationen ∨, ∧ durch a ∨ b := sup{a, b} a ∧ b := inf{a, b}
und
definieren, und (L; ∨, ∧) ist ein Verband nach der ersten Definition. Beweis.9 (1): Es sei (L; ∨, ∧) ein Verband und ≤ wie in (1) angegeben definiert. Dann gilt a ∧ a = a und folglich a ≤ a f¨ ur jedes a ∈ A, womit ≤ reflexiv ist. Falls a ≤ b und b ≤ a, haben wir a = a ∧ b sowie b = b ∧ a. Wegen (L1b) folgt hieraus a = b, womit ≤ antisymmetrisch ist. Es sei nun a ≤ b und b ≤ c. Dann gilt nach Definition von ≤: a = a ∧ b und b = b ∧ c. Hieraus ergibt sich nach (L2b) a = a ∧ (b ∧ c) = (a ∧ b) ∧ c = a ∧ c, womit a ≤ c und folglich ≤ transitiv ist. Es bleibt noch zu zeigen, daß sup{a, b} und inf{a, b} f¨ ur alle a, b ∈ L existieren. Da a = a ∧ (a ∨ b) und b = b ∧ (a ∨ b), haben wir a ≤ a ∨ b und b ≤ a ∨ b. Es sei nun a ≤ u und b ≤ u. Es gilt dann a = a ∧ u, b = b ∧ u, a ∨ u = (a ∧ u) ∨ u = u, b ∨ u = (b ∧ u) ∨ u = u und (a ∨ u) ∨ (b ∨ u) = u ∨ u = u = a ∨ (u ∨ (b ∨ u)) = (a ∨ b) ∨ u, womit u = (a ∨ b) ∨ u. Bildet man nun (a ∨ b) ∧ u, so erh¨ alt man (a ∨ b) ∧ u = (a ∨ b) ∧ ((a ∨ b) ∨ u) = a ∨ b. Folglich ist a ∨ b ≤ u und sup{a, b} = a ∨ b. ¨ Analog zeigt man a ∧ b = inf{a, b}, indem man in obigen Uberlegungen ∧ und ∨ vertauscht sowie ≤ durch ≥ ersetzt. Also ist (L; ≤) ein Verband. (2): siehe Band 2. Beispiele f¨ ur Verb¨ ande: (1.) Es sei L := {0, 1} und ∨ die auf L definierte Konjunktion und ∧ die auf L definierte Disjunktion. Offenbar ist dann (L; ∨, ∧) ein Verband. (2.) Es sei L := N, a∨b bezeichne das kleinste gemeinsame Vielfache und a∧b den gr¨ oßten gemeinsamen Teiler der Zahlen a, b ∈ N. Auch in diesem Fall pr¨ uft man leicht nach, daß (L; ∨, ∧) ein Verband ist. 9
Siehe auch den ausf¨ uhrlichen Beweis dieses Satzes im Band 2.
96
2 Klassische algebraische Strukturen
(3.) Beispiele f¨ ur Verb¨ ande nach der zweiten Definition sind: (P(A); ⊆), wobei A eine beliebige Menge ist; (R; ≤), wobei ≤ die u ¨bliche (totale) Ordnung auf R bezeichnet. Definition Man nennt einen Verband (L; ∨, ∧) distributiv, wenn f¨ ur alle x, y, z ∈ L folgende Gleichungen gelten: (D1) x ∧ (y ∨ z) = (x ∧ y) ∨ (x ∧ z), (D2) x ∨ (y ∧ z) = (x ∨ y) ∧ (x ∨ z). Wir kommen nun zu den Booleschen Algebren, die spezielle Verb¨ande sind. Definition Eine Boolesche Algebraist eine Algebra B = (B; ∨, ∧, , 0, 1) des Typs (2, 2, 1, 0, 0) (d.h.,∨ und ∧ sind zweistellige Operationen auf A, eine einstellige Operation auf A und 0 sowie 1 gewisse Elemente in A), die folgenden Bedingungen f¨ ur beliebiges x ∈ B gen¨ ugt: (B1) B ist ein distributiver Verband; (B2) x ∧ 0 = 0, x ∨ 1 = 1; (B3) x ∧ x = 0, x ∨ x = 1. Beispiele (1.) Es sei B = {0, 1} und ∨, ∧, wie im Abschnitt 1.6 definiert. Man pr¨ uft dann leicht nach, daß die so definierte Algebra (B; ∨, ∧, , 0, 1) (bis auf Isomorphie) die einzig m¨ ogliche 2-elementige Boolesche Algebra ist. (2.) Bezeichne X eine beliebige nichtleere Menge und ∪ (Vereinigung), ∩ (Durchschnitt) und (Komplement bez. X)) die u ¨ blichen Mengenoperationen u ¨ ber Teilmengen von X. Dann ist (P(X); ∪, ∩, , ∅, X) eine Boolesche Algebra. Diese Algebra ist u ¨brigens isomorph10 zu der im n¨ achsten Beispiel angegebenen Algebra. (3.) Die Menge aller Abbildungen von einer gegebenen nichtleeren Menge X in {0, 1} sei 2X . Mit Hilfe der in (1.)definierten Operationen ∨, ∧, lassen wie folgt definieren: sich dann auf 2X die Operationen , , (f g)(x) := f (x) ∨ g(x), (f g)(x) := f (x) ∧ g(x), (f )(x) := f (x) (f, g ∈ 2X ). Mit c0 und c1 wollen wir die durch c0 (x) := 0, c1 (x) := 1 10
Isomorphe Abbildungen zwischen Verb¨ anden lassen sich analog zu den bisher definierten isomorphen Abbildungen definieren (siehe auch die Definition auf Seite 99).
2.4 Verb¨ ande und Boolesche Algebren
97
definierten Abbildungen aus 2X bezeichnen. Da man leicht nachpr¨ ufen kann, daß durch α : P(X) → 2X , (α(M ))(x) = 1 :⇐⇒ x ∈ M
eine isomorphe Abbildung von P(X) auf 2X definiert wird, ist auch X (2 ; , , , c0 , c1 ) eine Boolesche Algebra. Im Fall |X| = n ∈ N kann man die Menge 2X auch wie folgt aufschreiben: 2X := {(a1 , a2 , . . . , an ) | ∀i ∈ {1, 2, . . . , n} : ai ∈ {0, 1}} (= {0, 1}n), und die Boolesche Algebra 2X ist geometrisch durch ein Hasse-Diagramm darstellbar (Boolesche Algebren sind spezielle Verb¨ande!). F¨ ur n = 3 erh¨ alt man z.B: (1,1,1) r @ @ @ @ @r (0,1,1) (1,1,0) r (1,0,1) r @ @ @ @ @ @ @ @ @r @r (0,0,1) (1,0,0) r @ (0,1,0) @ @ @ @r (0,0,0) An den so erhaltenen Hasse-Diagrammen (sogenannten Einheitsw¨ ur” feln“) kann man sich eine Reihe von Eigenschaften Boolescher Algebren geometrisch verdeutlichen. (4.) Eine Unteralgebra von (P(X); ∪, ∩, , ∅, X) wollen wir ein Feld von Teilmengen der Menge X nennen. Die Tr¨ agermenge einer solchen Unteralgebra von P(X) ist also eine gewisse Teilmenge von X, die ∅ sowie X enth¨ alt und die abgeschlossen ist bez. (endlicher) Anwendung der Operationen ∪, ∩ und . Ein Feld von Teilmengen einer Menge X bildet (als Unteralgebra einer Booleschen Algebra) nat¨ urlich ebenfalls eine Boolesche Algebra. Eine Zusammenstellung n¨ utzlicher Rechenregeln in Booleschen Algebren liefert der folgende Satz.
98
2 Klassische algebraische Strukturen
Satz 2.4.2 Sei B eine Boolesche Algebra. F¨ ur beliebige x, y ∈ B gilt dann: (a) x ∨ 0 = x, x ∧ 1 = x; (b) (x ∧ y = 0 und x ∨ y = 1) =⇒ x = y; (c) 0 = 1, 1 = 0; (d) x = x; (e) x ∨ y = x ∧ y, x ∧ y = x ∨ y ( Morgansche Regeln“); ” (f ) x ≤ y ⇐⇒ y ≤ x; (g) x ≤ y ⇐⇒ x ∨ y = 1. Beweis. (a): Da in einer Booleschen Algebra x ∧ 0 = 0 gilt, erh¨alt man unter Verwendung des Absorptionsgesetzes x ∨ 0 = x ∨ (x ∧ 0) = x. Aus der Eigenschaft x ∨ 1 = 1 einer Booleschen Algebra und dem Absorptionsgesetz folgt außerdem: x ∧ 1 = x ∧ (x ∨ 1) = x. (b): Seien x ∧ y = 0 und x ∨ y = 1. Zum Beweis von x = y gen¨ ugt es zu zeigen, daß y ≤ x und x ≤ y gilt. Nach Definition von ≤ gilt dies, falls x ∧ y = y und x ∧ y = x ist. y ≤ x folgt aus x ∧ y = 0 ∨ (x ∧ y) = (x ∧ y) ∨ (x ∧ y) = (x ∨ x) ∧ y = 1 ∧ y = y. x ≤ y folgt aus x = 1 ∧ x = (x ∨ y) ∧ x = (x ∧ x) ∨ (y ∧ x) = 0 ∨ (y ∧ x) = y ∧ x. onnen wir (b) benutzen. Da n¨amlich die Glei(c): Zum Beweis von 0 = 1 k¨ chungen 0 ∧ 1 = 0 und 0 ∨ 1 = 1 nach Axiomen der Booleschen Algebra gelten, folgt 0 = 1 aus (b), indem man x = 0 und y = 1 setzt. Analog beweist man 1 = 0. (d) folgt ebenfalls aus (b) durch Ersetzen von y durch x. (e): Zum Beweis von x ∨ y = x ∧ y zeigen wir (x ∨ y) ∧ (x ∧ y) = 0, (x ∨ y) ∨ (x ∧ y) = 1, aus dem dann mittels (b) die Behauptung folgt.
2.4 Verb¨ ande und Boolesche Algebren
99
Es gilt (x ∨ y) ∧ (x ∧ y) = (x ∧ (x ∧ y)) ∨ (y ∧ (x ∧ y)) = ((x ∧ x) ∧ y) ∨ (x ∧ (y ∧ y)) = (0 ∧ y) ∨ (x ∧ 0) = 0. Analog beweist man (x ∨ y) ∨ (x ∧ y) = 1, womit x ∨ y = x ∧ y aus (b) folgt. x ∧ y = x ∨ y l¨ aßt sich leicht aus der eben gerade bewiesenen Formel und (d) herleiten. (f) folgt aus der Definition von ≤, mittels (e) und aus x ≤ y ⇐⇒ x ∧ y = x ⇐⇒ x ∨ y = x ⇐⇒ y ≤ x. (g) folgt aus x ≤ y =⇒ x ∧ y = x =⇒ x ∨ (x ∧ y) = x ∨ x =⇒ x ∨ (x ∧ y) = 1 =⇒ (x ∨ (x ∧ y)) ∨ y = 1 ∨ y = 1 =⇒ x ∨ ((x ∧ y) ∨ y) = 1 =y
=⇒ x ∨ y = 1
und
x ∨ y = 1 =⇒ x ∧ (x ∨ y) = x ∧ 1 =⇒ (x ∧ x) ∨ (x ∧ y) = x =⇒ x ∧ y = x =⇒ x ≤ y.
Definition Seien B = (B; ∨, ∧, , 0, 1) und B′ = (B ′ ; ∨′ , ∧′ , ′ , 0′ , 1′ ) zwei Boolesche Algebren. Man sagt: B ist isomorph zu B′ :⇐⇒ ∃ Bijektion f : B → B ′ : ∀x, y ∈ B : f (x ∨ y) = f (x) ∨′ f (y) und f (x ∧ y) = f (x) ∧′ f (y) und ′ f (x) = f (x) . Der nachfolgende Satz zeigt, daß Boolesche Algebren bis auf Isomorphie in einem gewissen Sinne eindeutig bestimmt sind.
100
2 Klassische algebraische Strukturen
Satz 2.4.3 (Stonescher Darstellungssatz)11 (1) Jede endliche Boolesche Algebra ist isomorph zu einer gewissen Booleschen Algebra der Form P(X). (2) Jede Boolesche Algebra ist isomorph zu einem Feld von Teilmengen einer gewissen Menge. Beweis.
Siehe Band 2.
Abschließend soll noch ein Zusammenhang zwischen Booleschen Algebren und speziellen Ringen bewiesen werden. Definition Sei R = (R; +, ·) ein Ring mit dem neutralen Element 0 bez. + und dem neutralen Element 1 bez. ·. R wird dann Boolescher Ring genannt, wenn f¨ ur beliebige x ∈ R stets x2 (:= x · x) = x gilt. Lemma 2.4.4 In einem Booleschen Ring gelten die Identit¨aten x + x = 0, x · y = y · x. Beweis.
Die Behauptungen folgen aus (x + x) · (x + x) = x + x =⇒ x · x + x · x + x · x + x · x = x + x =⇒ x + x + x + x = x + x =⇒ (x + x) + (x + x) − (x + x) = (x + x) − (x + x) =⇒ x + x = 0
und
(x + y) · (x + y) = x + y =⇒ x · x + x · y + y · x + y · y = x + y =⇒ x + x · y + y · x + y = x + y =⇒ x + x · y + y · x + y − (x + y) = x + y − (x + y) =⇒ x · y + y · x = 0 =⇒ x · y = −(y · x) = y · x.
11
Marshall Harvey Stone (1903–1989), US-amerikanischer Mathematiker.
2.4 Verb¨ ande und Boolesche Algebren
101
Satz 2.4.5 (1) Bezeichne B = (B; ∨, ∧, , 0, 1) eine Boolesche Algebra. Mit Hilfe von B l¨aßt sich eine Algebra B⊕ := (B; +, ·) wie folgt definieren: x + y := (x ∧ y) ∨ (x ∧ y), x · y := x ∧ y. Die Algebra B⊕ ist dann ein Boolescher Ring mit dem neutralen Element 0 bez. + und dem neutralen Element 1 bez. ·. (2) Bezeichne umgekehrt R = (R; +, ·) einen Booleschen Ring mit dem neutralen Element 0 bez. + und dem neutralen Element 1 bez. ·. Mit Hilfe von R l¨aßt sich eine Algebra R⊕ := (R; ∨, ∧, , 0, 1) wie folgt definieren: x ∨ y := x + y + (x · y), x ∧ y := x · y, x := 1 + x. Die Algebra R⊕ ist dann eine Boolesche Algebra. (3) Seien B und R wie oben definiert. Dann haben wir (B⊕ )⊕ = B, (R⊕ )⊕ = R. Beweis.
(1): Sei B := (B; ∧, ∨,− , 0, 1) eine Boolesche Algebra. Legt man a + b := (a ∧ b) ∨ (a ∧ b), a · b := a ∧ b
fest, so sind offenbar (B; +) und (B; ·) kommutative Halbgruppen, da ∨ und ∧ in einem Verband kommutative Operationen sind. Mit Hilfe von Satz 2.4.2 pr¨ uft man leicht nach, daß f¨ ur beliebige a ∈ B gilt: a + 0 = (a ∧ 0) ∨ (a ∧ 0) = a,
d.h., 0 ist ein neutrales Element bez. +,
a + a = (a ∧ a) ∨ (a ∧ a) = 0, d.h., das zu a inverse Element bez. + ist a. 1 · a = (1 ∧ a) = a,
d.h., 1 ist das neutrale Element von B bez. ·.
Also ist (B; +) eine kommutative Gruppe und (B; ·) eine kommutative Halbgruppe mit dem neutralen Element 1. Außerdem haben wir: (a + b) · c = ((a ∧ b) ∨ (a ∧ b)) ∧ c = ((a ∧ b) ∧ c) ∨ ((a ∧ b)) ∧ c) und
102
2 Klassische algebraische Strukturen (a · c) + (b · c) = ((a · c) ∧ b · c) ∨ (a · c ∧ (b · c)) = ((a ∧ c) ∧ b ∧ c) ∨ (a ∧ c ∧ (b ∧ c)) = ((a ∧ c) ∧ (b ∨ c)) ∨ ((a ∨ c) ∧ (b ∧ c)) = ((a ∧ b) ∧ c) ∨ ((a ∧ b)) ∧ c),
d.h., es gilt (a·c)+(b·c) = (a+b)·c f¨ ur beliebige a, b, c ∈ B. Das zweite Distributivgesetz (a · b) + (a · c) = a · (b + c) folgt aus dem gerade bewiesenen Distributivgesetz und der Kommutativit¨ at von ·. Wegen des Idempotenzgesetzes x ∧ x = x gilt schließlich auch x · x = x f¨ ur alle x ∈ B. Also ist (B; +, ·) ein Boolescher Ring. (2): Sei B := (B; +, ·) ein Boolescher Ring mit dem neutralen Element 0 bez¨ uglich + und dem Einselement 1 bez¨ uglich · (erkl¨ art auf B\{0}). Sei nun f¨ ur beliebige a, b ∈ B definiert: a ∨ b := a + b + (a · b), a ∧ b := a · b, a := a + 1. Wir haben zu zeigen, daß (a)
x ∧ y = y ∧ x,
(h)
x ∧ (x ∨ y) = x,
(b)
x ∨ y = y ∨ x,
(i)
x ∧ (y ∨ z) = (x ∧ y) ∨ (x ∧ z),
(c)
x ∧ (y ∧ z) = (x ∧ y) ∧ z,
(j)
x ∨ (y ∧ z) = (x ∨ y) ∧ (x ∨ z),
(d)
x ∨ (y ∨ z) = (x ∨ y) ∨ z,
(k)
x ∧ 0 = 0,
(e)
x ∧ x = x,
(l)
x ∨ 1 = 1,
(f )
x ∨ x = x,
(m)
x ∧ x = 0,
(g)
x ∨ (x ∧ y) = x,
(n)
x ∨ x = 1.
f¨ ur beliebige x, y, z ∈ B gilt. (a) und (b) folgen unmittelbar aus der vorausgesetzten Kommutativit¨ at von + und ·. (c) gilt, da · assoziativ ist. (e) ist nach Definition eines Booleschen Ringes erf¨ ullt. Nach Definition von ∨ ergibt sich (d) aus x ∨ (y ∨ z) = x + (y + z + y · z) + x · (y + z + y · z) = x+y+z+y·z+x·y+x·z+x·y·z = x+y+x·y+z+x·z+y·z+x·y·z = (x + y + x · y) + z + (x + y + x · y) · z = (x ∨ y) ∨ z. Wegen gilt (f). (g) folgt aus
x∨x= x+x+x·x = 0+x = x
x ∨ (x ∧ y) = x + x · y + x · (x · y) = x + x · y + (x · x) · y = x + x · y + x · y = x + 0 = x.
2.4 Verb¨ ande und Boolesche Algebren
103
(h) folgt analog aus: x ∧ (x ∨ y) = x · (x + y + x · y) = x · x + x · y + x · (x · y) = x + x · y + x · y = x + 0 = x. (i) ergibt sich aus x ∧ (y ∨ z) = x · (y + z + y · z) = x · y + x · z + x · (y · z) = x · y + x · z + (x · x) · (y · z) = x · y + x · z + (x · y) · (x · z) = (x ∧ y) ∨ (x ∧ z). (j) folgt aus (x ∨ y) ∧ (x ∨ z) = (x + y + x · y) · (x + z + x · z) = x+x·z+x·z+y·x+y·z+y·x·z +x · y + x · y · z + x · y · z = x + y · z + x · (y · z) = x ∨ (y ∧ z). (k) ist eine Eigenschaft, die allgemein in Ringen gilt (siehe Satz 2.3.1). (l) folgt aus x ∨ 1 = x + 1 + x · 1 = x + 1 + x = (x + x) + 1 = 0 + 1 = 1. (m) folgt aus (n) folgt aus
x ∧ x = x · (x + 1) = x · x + x = x + x = 0.
x∨x = x+(x+1)+x·(x+1) = (x+x)+1+(x·x+x) = 0+1+(x+x) = 0+1+0 = 1. Also ist B eine Boolesche Algebra.
Mehr u ¨ber Verb¨ande und Boolesche Algebren findet man im Band 2 sowie z.B. in [Bur-S 81], [Kop 88], [Sko 73] und [Whi 64].
Teil II
Lineare Algebra und analytische Geometrie
3 Lineare Gleichungssysteme, Determinanten und Matrizen
In diesem Kapitel bezeichne K = (K; +, ·) stets einen K¨orper. Gem¨aß unserer in Kapitel 2 getroffenen Vereinbarungen sei auch hier 0 das Einselement von (K; +), 1 das Einselement von (K\{0}; ·), −x das zu x ∈ K inverse Element bez. + und x−1 das zu x ∈ K\{0} inverse Element bez. ·. Falls x, y ∈ K, steht
x−y f¨ ur x + (−y)
und es sei, falls y = 0, x := x · y −1 bzw. x : y := x · y −1 bzw. x/y := x · y −1 . y F¨ ur x · y schreiben wir kurz auch xy. Außerdem seien x0 := 1, xn := x · . . . · x, · x −n
x
(n ∈ N).
n-mal := x · x−1· . . . · x−1 n-mal −1
Falls nicht ausdr¨ ucklich anders angegeben, w¨ahlen wir in Beispielen als K¨orper K den K¨orper der reellen Zahlen R. Gegenstand unserer nachfolgenden Untersuchungen ist das allgemeine lineare Gleichungssystem (abgek¨ urzt LGS)
108
3 Lineare Gleichungssysteme, Determinanten und Matrizen
a11 · x1 + a12 · x2 + . . . + a1n · xn = b1 a21 · x1 + a22 · x2 + . . . + a2n · xn = b2 .. .. .. . . + . +...+ . = ..
(*)
am1 · x1 +am2 · x2 + . . . +amn · xn =bm (n, m ∈ N), wobei die aij ∈ K die sogenannten Koeffizienten der Unbekannten xj sind (i ∈ {1, 2, . . . , m}, j ∈ {1, 2, . . . , n}) sowie b1 , b2 , . . . , bm ∈ K die sogenannten Absolutglieder. Als L¨ osung dieses LGS wird jede Belegung der x1 , . . . , xn mit gewissen Werten aus K angesehen, die s¨ amtliche Gleichungen von (*) erf¨ ullt. Man nennt (*) ein homogenes LGS, wenn b1 = b2 = . . . = bm = 0 ist; dagegen spricht man von einem inhomogenen LGS, wenn mindestens ein bi (i ∈ {1, 2, . . . , m}) von 0 verschieden ist. Ziele dieses Kapitels sind es, • •
notwendige und hinreichende Bedingungen f¨ ur die Existenz von L¨osungen des LGS (*) sowie L¨ osungsverfahren f¨ ur (*)
aufzufinden. Hilfsmittel dazu sind Determinanten und Matrizen, mit denen wir uns zun¨ achst besch¨ aftigen wollen.
3.1 Determinanten Zwecks Herleitung und Motivation einer allgemeinen Determinantendefinition betrachten wir das LGS (*) f¨ ur n = m = 2: a11 · x1 +a12 · x2 =b1 a21 · x1 +a22 · x2 =b2 , f¨ ur das wir a11 · a22 − a12 · a21 = 0 voraussetzen. Multipliziert man die erste Gleichung mit a22 , die zweite mit −a12 und addiert beide Gleichungen, so erh¨ alt man (a11 a22 − a12 a21 )x1 = b1 a22 − b2 a12 bzw. x1 =
b1 a22 − b2 a12 . a11 a22 − a12 a21
3.1 Determinanten
109
Analog bekommt man durch Multiplikation der ersten Gleichung mit −a21 , der zweiten mit a11 und anschließender Addition beider Gleichungen: x2 =
b2 a11 − b1 a21 . a11 a22 − a12 a21
Man erkennt, daß die L¨ osungen x1 , x2 des LGS Quotienten zweier Terme der Form a · b − c · d sind. F¨ uhrt man nun als Bezeichnung α β γ δ := α · δ − γ · β
(Determinante 2. Ordnung genannt) ein, so erh¨alt man folgende u ¨ bersichtliche Beschreibung von x1 , x2 : b1 a12 a11 b1 b2 a22 a21 b2 , x2 = x1 = a11 a12 . a11 a12 a21 a22 a21 a22 Als n¨ achstes betrachten wir das LGS (*) f¨ ur n = m = 3: a11 x1 +a12 x2 +a13 x3 =b1 a21 x1 +a22 x2 +a23 x3 =b2 a31 x1 +a32 x2 +a33 x3 =b3 , f¨ ur das wir a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 = 0 voraussetzen. Nachfolgend wird beschrieben, wie man durch Multiplikation der Gleichungen mit gewissen Faktoren und anschließender Addition der Gleichungen unser LGS l¨ osen kann. a22 a23 a11 x1 + a12 x2 + a13 x3 = b1 | ·(a22 a33 − a32 a23 ) = a32 a33 a a a21 x1 + a22 x2 + a23 x3 = b2 | ·(−a12 a33 + a32 a13 ) = − 12 13 a32 a33 a12 a13 + a31 x1 + a32 x2 + a33 x3 = b3 | ·(a12 a23 − a13 a22 ) = a22 a23
(a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 )x1 = b1 (a22 a33 − a32 a23 ) + b2 (−a12 a33 + a32 a13 ) + b3 (a12 a23 − a13 a22 ), d.h., x1 =
b1 (a22 a33 − a32 a23 ) + b2 (−a12 a33 + a32 a13 ) + b3 (a12 a23 − a13 a22 ) . a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31
Auf ¨ ahnliche Weise erh¨ alt man auch x2 , x3 :
110
3 Lineare Gleichungssysteme, Determinanten und Matrizen
x2 =
b1 (−a21 a33 + a23 a31 ) + b2 (a11 a33 − a13 a31 ) + b3 (−a11 a23 + a13 a21 ) , a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31
x3 =
b1 (a21 a32 − a22 a31 ) + b2 (−a11 a32 + a12 a31 ) + b3 (a11 a22 − a12 a21 ) . a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31
Definiert man nun als Determinante 3. Ordnung: a b c d e f := a · e · i + b · f · g + c · d · h − (b · d · i + a · f · h + c · e · g) g h i
(a, b, c, d, e, f, g, h, i ∈ K), was man sich nach der Regel von Sarrus 1“ ” a c a b b @ @ @ @ @ e e = aei + bf g + cdh − (bdi + af h + ceg) d f@ @ d @ @ @ g
h
@
i
@g
@ h
ganz gut merken kann, so erh¨ alt man f¨ ur die L¨ osung des LGS (*) mit n = m = 3 und a11 a22 a33 + . . . = 0 folgende u ¨ bersichtliche Beschreibung:
1
b1 b2 b3 x1 = a11 a21 a31
a12 a22 a32 a12 a22 a32
a13 a23 a33 , a13 a23 a33
a11 a21 a31 x2 = a11 a21 a31
b1 b2 b3 a12 a22 a32
a13 a23 a33 , a13 a23 a33
a11 a21 a31 x3 = a11 a21 a31
a12 a22 a32 a12 a22 a32
b1 b2 b3 . a13 a23 a33
Pierre-Frederic Sarrus (1798–1861), franz¨ osischer Mathematiker.
3.1 Determinanten
111
Unsere bisherigen Betrachtungen legen den Versuch nahe, f¨ ur ein LGS mit n Gleichungen und n Unbekannten bei passend gew¨ahlten Voraussetzungen auch im Fall n > 3 einen Ausdruck ( Determinante n-ter Ordnung“) zu finden, ” der f¨ ur dieses System eine entsprechende Rolle spielt wie die Determinanten 2. bzw. 3. Ordnung f¨ ur n = 2 bzw. 3. Um zu einer Vermutung zu kommen, betrachten wir a11 a12 = a11 a22 − a12 a21 a21 a22 und a11 a12 a13 a21 a22 a23 = a31 a32 a33 a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 etwas genauer. Man erkennt sofort, daß in der Determinante 2. Ordnung jeder Summand aus zwei Faktoren und in der Determinante 3. Ordnung jeder Summand aus drei Faktoren besteht. Man bemerkt außerdem, daß in jedem Summanden die Anordnung der Faktoren so gew¨ahlt worden ist, daß die ersten Indizes in der nat¨ urlichen Reihenfolge stehen und die zweiten Indizes der Faktoren von der Bauart s(1)s(2)
(s ∈ S2 )
bzw. s(1)s(2)s(3)
(s ∈ S3 )
sind. Wodurch werden aber die Vorzeichen“ + bzw. − bestimmt? Bei der ” Beantwortung dieser Frage hilft uns der Begriff der Inversion einer Permutation weiter. Definition Seien s ∈ Sn und i, j ∈ {1, 2, ..., n}. Man sagt: das Paar (s(i), s(j)) bildet eine Inversion von s :⇐⇒ s(i) > s(j) ∧ i < j. Die Anzahl der Inversionen von s sei mit I(s) bezeichnet. Speziell f¨ ur n ∈ {2, 3} erh¨ alt man folgende Inversionszahlen der Permutationen aus S2 ∪ S3 :
(s(1), s(2)) I(s) (1, 2) 0 (2, 1) 1
(s(1), s(2), s(3)) I(s) (1, 2, 3) 0 (2, 3, 1) 2 (3, 1, 2) 2 (1, 3, 2) 1 (2, 1, 3) 1 (3, 2, 1) 3
Man erkennt nun unschwer, daß a11 a12 = (−1)I(s1 ) a1s1 (1) a2s1 (2) + (−1)I(s2 ) a1s2 (1) a2s2 (2) a21 a22
112
3 Lineare Gleichungssysteme, Determinanten und Matrizen
(S2 = {s1 , s2 }) und a11 a12 a13 a21 a22 a23 = (−1)I(s) · a1s(1) · a2s(2) · a3s(3) a31 a32 a33 s∈S3 gilt. Diese Schreibweise l¨ aßt sich nat¨ urlich sofort verallgemeinern. Definition Seien a11 , a12 , . . . , a1n , a21 , . . . , ann ∈ K, n ∈ N. Unter einer Determinante n-ter Ordnung u ¨ ber K a11 a |aij |n := 21 ... an1
a12 a22 ... an2
a13 a23 ... an3
... ... ... ...
a1n a2n ... ann
versteht man ein Element aus K, das sich aus den vorgegebenen Elementen a11 , a12 , . . . , ann wie folgt berechnet: (−1)I(s) · a1s(1) · a2s(2) · . . . · ans(n) . s∈Sn
Man beachte: Eine Determinante n-ter Ordnung ist also nur ein gewisses Element aus K, f¨ ur das wir auch die Bezeichnung |aij |n oder a11 . . .a1n .. . . . . . .. an1 . . .ann verwenden, aus der zu ersehen ist, aus welchen Elementen aus K dieses Element berechenbar ist. Obige Definition einer Determinante ist nicht die einzig m¨ogliche2 . Zur Unterscheidung nennt man sie deshalb auch Leibnizsche Definition“ einer ” ¨ Determinante, nach Gottfried W. Leibniz (1646–1716), von dem erste Uberlegungen zu Determinanten stammen. Bevor wir uns Gedanken u ¨ ber die Berechnung und Anwendung solcher Determinanten machen, noch einige Bezeichnungen und Bemerkungen: • •
Die Leibnizsche Definition enth¨ alt als Spezialfall auch Determinanten erster Ordnung: |a11 |1 := a11 .
Falls K nur aus zwei Elementen besteht (z.B. K = (Z2 ; +(mod 2), ·(mod 2))), ist −1 = 1 und damit |aij |n = a1s(1) · a2s(2) · . . . · ans(n) . s∈Sn
2
Weitere M¨ oglichkeiten entnehme man z.B. [Koc 57] oder [Kel 68].
3.1 Determinanten
•
113
Den Ausdruck (−1)I(s) bezeichnet man oft auch mit sign s ( Signum von s“). ”
•
Bei den Elementen aij der Determinante A := |aij |n heißt i der Zeilenindex und j der Spaltenindex. Außerdem sei in A:
a11 a12 .. .
.. .
ai1 ai2 .. .
.. .
an1 an2
... ... ... ...
j-te Spalte ? a1j ... a1n .. . aij
...
.. .
...
... anj
...
.. . an1
•
...
ain i-te Zeile .. .
... ann
und a11@ a12 @ @ a21 @a22
.. .
a1n
Nebendiagonale
... a2n @ . .. @ .. . @ .. . @ an2 ... a@ @ nn Hauptdiagonale
Entsteht A = |aij |n aus den Koeffizienten des LGS (*) f¨ ur n = m, so nennt man A Koeffizientendeterminante von (*).
Die Berechnung einer Determinante nach Definition ist f¨ ur große n fast unm¨ oglich, da die Summe, die in der Definition von Leibniz angegeben wurde, aus n! Summanden besteht und n! f¨ ur große n sehr stark w¨achst. So h¨atte man z.B. zur Berechnung einer Determinante 25-ter Ordnung nach Definition allein 25! · 24 Multiplikationen auszuf¨ uhren, f¨ ur die ein Computer, der in der Sekunde 1 Million Multiplikationen ausf¨ uhren kann, etwa 1013 Jahre ben¨ otigt. Trotzdem werden wir bald in der Lage sein, Determinanten zu berechnen. Dabei werden wir Eigenschaften der Determinanten, die in den nachfolgenden S¨ atzen 3.1.5–3.1.10 angegeben sind, benutzen. Eigenschaften von Determinanten Zun¨ achst drei Hilfsaussagen u ur die Beweise der S¨ atze ¨ ber Permutationen, die wir f¨ 3.1.4 und 3.1.6 ben¨ otigen. Die dort auftretenden Permutationen s sind in der Form
114
3 Lineare Gleichungssysteme, Determinanten und Matrizen
s = (s(1), s(2), . . . , s(n)) angegeben. Es bietet sich hierbei an, Permutationen als Anordnungen der Zahlen 1, 2, . . . , n aufzufassen. Lemma 3.1.1 Seien s und s′ Permutationen aus Sn . Dann gelangt man von s zu s′ durch eine gewisse Aufeinanderfolge von Transpositionen (Vertauschungen von zwei Elementen s(i), s(j)). Beweis. Zun¨ achst ein Beispiel. Seien s = (3, 4, 5, 2, 1) und s′ = (2, 1, 4, 3, 5). Von s zu s′ gelangt man wie folgt: (3, 4, 5, 2, 1) → (2, 4, 5, 3, 1) → (2, 1, 5, 3, 4) → (2, 1, 4, 3, 5). Fett gedruckt sind dabei die im n¨ achsten Schritt zu vertauschenden Elemente. Aus diesem Beispiel ist das allgemeine Verfahren erkennbar, das wie folgt abl¨ auft: ¨ ur den Ubergang von s zu s′ die erste Stelle richtig besetzt“. Ist s(1) = s′ (1), so ist f¨ ” achstes betrachtet man Anderenfalls vertauscht man s(1) mit s(j) := s′ (1). Als n¨ ′ die 2. Stelle. Ist s(2) = s (2), so hat man keine Vertauschung vorzunehmen. Bei s(2) = s′ (2) findet man ein k > 2 mit s(k) = s′ (2) und man kann dann s(2) mit s(k) vertauschen, usw. Nach n − 1 Schritten dieser Art stehen s′ (1), s′ (2), . . . , s′ (n − 1) an den richtigen Stellen und somit auch s′ (n). Lemma 3.1.2 Vertauscht man in einer Permutation s zwei verschiedene Elemente s(i) und s(j), so ¨ andert sich die Inversionszahl der Permutation um eine ungerade Zahl. Beweis. O.B.d.A. sei i < j. Das Lemma ist unmittelbar einzusehen, wenn j = i + 1 ist: Die Zahlen s(i) und s(i + 1) bilden entweder vor oder nach der Vertauschung eine Inversion, je nachdem ob s(i) > s(i + 1) oder s(i) < s(i + 1). Alle etwa vorhandenen weiteren Inversionen treten in s und s′ (der aus s gebildeten Permutation mittels Vertauschung von s(i) mit s(i + 1)) gleichermaßen auf. Folglich unterscheiden sich I(s) und I(s′ ) genau um 1. Wir betrachten nun den Fall j > i+1. Die aus s durch Vertauschen von s(i) und s(j) ¨ von s zu zu erhaltene Permutation sei mit s′ bezeichnet. Offenbar kann der Ubergang s′ durch mehrmaliges Vertauschen je zweier benachbarter Elemente bewerkstelligt werden. Man vertausche s(i) zun¨ achst so oft jeweils mit seinem rechten Nachbarn, bis s(i) an der j-ten Stelle steht. Dazu sind j −i Vertauschungen benachbarter Elemente erforderlich. Nach diesen Vertauschungen befindet sich s(j) auf dem (j−1)-ten Platz. Vertauscht man nun s(j) mit seinem jeweiligen linken Nachbarn bis s(j) zur i-ten Stelle gelangt, so erh¨ alt man s′ , wobei dazu nochmals j −1−i Vertauschungen von je zwei nebeneinanderstehenden Elementen erforderlich waren. Insgesamt sind damit ¨ 2·(j −i)−1 Vertauschungen beim Ubergang von s zu s′ notwendig gewesen. Bei jeder dieser Vertauschungen ¨ andert sich die Inversionszahl um 1. Folglich unterscheidet sich I(s′ ) von I(s) um eine ungerade Zahl. Lemma 3.1.3 Seien s ∈ Sn und I(s) eine ungerade (bzw. gerade) Zahl. Dann gelangt man von s zu der Permutation (1, 2, . . . , n) stets durch eine ungerade (bzw. gerade) Anzahl von Transpositionen. Beweis. Nach Lemma 3.1.1 gelangt man von s zu (1, 2, . . . , n) durch eine gewisse Aufeinanderfolge von Transpositionen. Bei jeder Transposition ¨ andert sich wegen Lemma 3.1.2 die Inversionszahl um eine ungerade Zahl. Da I((1, 2, . . . , n)) = 0 ist, folgt hieraus die Behauptung.
3.1 Determinanten
115
Satz 3.1.4 Vertauscht man in einer Determinante s¨amtliche Zeilen mit den Spalten (ohne die Reihenfolge der Zeilen bzw. Spalten zu ver¨andern), so ¨andert sich der Wert der Determinante nicht. Beweis. F¨ ur Determinanten 1. und 2. Ordnung ist die Behauptung offensichtlich. Sei nun A := |aij |n eine Determinante n-ter Ordnung (n ≥ 3) und bezeichne B := |bij |n die sich aus A durch Vertauschen der Zeilen mit den Spalten ergebene Determinante, d.h., es gilt: ∀ i, j ∈ {1, ..., n} : aji = bij . Nach Definition ist B=
X
s∈Sn
(−1)I(s) · b1s(1) b2s(2) · · · bns(n) ,
wobei b1s(1) b2s(2) · · · bns(n) = as(1)1 as(2)2 · · · as(n)n gilt. Durch Vertauschen der Reihenfolge der Faktoren erh¨ alt man aus as(1)1 · · · as(n)n ein Produkt der Form a1s′ (1) · · · ans′ (n) . Schaut man sich nur die Zeilenindizes (also die an der ersten Stel¨ le stehenden Indizes) an, so entspricht diesen Vertauschungen der Ubergang von (s(1), s(2), . . . , s(n)) zu (1, 2, . . . , n) durch Transpositionen. Falls I(s) gerade (bzw. ungerade) ist, so betr¨ agt die Anzahl dieser Transpositionen eine gerade (bzw. ungerade) Zahl nach Lemma 3.1.3. Betrachtet man nun die Permutation s′ , so gelangt man von s′ zu (1, 2, . . . , n) durch die gleiche Anzahl von Transpositionen wie von s zu (1, 2, . . . , n). Folglich gilt ′ (−1)I(s) = (−1)I(s ) , womit jeder Summand der Form (−1)I(s) · b1s(1) · · · bns(n) von B auch in P I(s) · a1s(1) · · · ans(n) vorkommt und umgekehrt, d.h., es gilt A = B. s∈Sn (−1)
Unmittelbar aus der Definition einer Determinante folgt der Satz 3.1.5 Ein gemeinsamer Faktor einer Zeile (bzw. Spalte) einer Determinante kann herausgezogen werden, d.h., es gilt a11 a21 .. . α · ai1 .. . an1
a12 . . . a1n a22 . . . a2n .. . . . . . .. = α · |aij |n . α · ai2 . . . α · ain .. . . . . . .. an2 . . . ann
116
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Satz 3.1.6 Entsteht eine Determinante A′ aus einer Determinante A durch Vertauschen der i-ten mit der j-ten Zeile (bzw. Spalte), wobei i = j, so gilt A = −A′ . Beweis. Wegen Satz 3.1.4 gen¨ ugt es, die Behauptung nur f¨ ur Zeilen zu beweisen. O.B.d.A. sei i < j. Nach Definition einer Determinante und Lemma 3.1.2 gilt dann I((s(1),...,s(i),...,s(j),...)) a1s(1) · · · ans(n) A= s∈Sn (−1) I((s(1),...,s(j),...,s(i),...)) a1s(1) · · · ans(n) = s∈Sn −(−1) =
−A′ .
Satz 3.1.7 Ist in einer Determinante A eine Zeile (bzw. Spalte) das Vielfache einer anderen Zeile (bzw. Spalte), so ist A = 0. Insbesondere gilt A = 0, wenn A zwei gleiche Zeilen (bzw. Spalten) besitzt. Beweis. Wegen der S¨ atze 3.1.5 und 3.1.4 gen¨ ugt es, die Behauptung nur f¨ ur Determinanten A mit zwei gleichen Zeilen zu beweisen. Wir unterscheiden zwei F¨ alle: 1. Fall: 1 + 1 = 0 (d.h., das zu 1 inverse Element ist = 1). Vertauscht man in diesem Fall in A die beiden gleichen Zeilen, so bleibt einerseits der Wert von A unge¨ andert, wechselt aber andererseits nach Satz 3.1.6 sein Vorzeichen, d.h., es ist A = −A. Folglich haben wir A+A = 0 = (1+1)·A. Da jeder K¨ orper nullteilerfrei ist (siehe Satz 2.3.2, (2)), ergibt sich hieraus A = 0. 2. Fall: 1 + 1 = 0 (d.h., 1 = −1). In diesem Fall gilt a + a = 0 f¨ ur alle a ∈ K, da a + a = a · (1 + 1). Außerdem gilt f¨ ur jede Determinante |aij |n u ¨ber K: |aij |n = a1s(1) a2s(2) · · · ans(n) . s∈Sn
Sind nun in dieser Determinante zwei Zeilen gleich, so stimmen zwei Summanden der Form a1s(1) · · · ans(n) und a1s′ (1) · · · ans′ (n) u ¨ berein, wenn s′ aus s durch Vertauschen der i-ten mit der j-ten Stelle entsteht und die i-te und die j-te Zeile unserer Determinante gleich sind. Folglich gilt nach dem oben Bemerkten A = 0. Satz 3.1.8 Unterscheiden sich zwei Determinanten n-ter Ordnung A und A′ nur in der i-ten Zeile, d.h., haben wir
3.1 Determinanten
117
a11 a12 . . . a1n a11 a12 . . . a1n a21 a22 . . . a2n a21 a22 . . . a2n ............... ............... ′ A= und A = ′ , ai1 ai2 . . . ain ai1 a′i2 . . . a′in ............... ............... an1 an2 . . . ann an1 an2 . . . ann so gilt a11 a12 ... a1n a21 a22 ... a2n . . . . . . . . . . . . . . . . . . . . . . . . . ..... A + A′ = . ai1 + a′i1 ai2 + a′i2 . . . ain + a′in .............................. an1 an2 . . . ann Beweis.
¨ UA.
Satz 3.1.9 Eine Determinante ¨andert ihren Wert nicht, wenn man das Vielfache einer Zeile (bzw. Spalte) zu einer anderen Zeile (bzw. Spalte) addiert. Beweis. Es sei A = |aij |n und die Determinante A′ unterscheide sich von A nur in der j-ten Zeile (j = i), die das α-fache der i-ten Zeile sei: a11 a12 . . . a1n a21 a22 . . . a2n ....................... ai1 ai2 . . . ain = α · |aij |n . A′ = ....................... α · ai1 α · ai2 . . . α · ain ← j-te Zeile ....................... an1 an2 . . . ann A′ ist nach Satz 3.1.7 gleich 0. Folglich erhalten wir mit Hilfe von Satz 3.1.8 unsere Behauptung: a11 a12 ... a1n a21 a22 ... a2n .................................... ′ A=A+A = . aj1 + αai1 aj2 + αai2 . . . ajn + αain .................................... an1 an2 ... ann
Der folgende Satz ist ein Spezialfall des sogenannten Laplaceschen Entwicklungssatzes (siehe z.B. [Koc 57]).
118
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Satz 3.1.10 (Entwicklungssatz f¨ ur Determinanten; mit Definition) Es sei A = |aij |n eine Determinante n-ter Ordnung, n ≥ 2, und f¨ ur i, j ∈ {1, ..., n} Aij eine Determinante (n − 1)-ter Ordnung, die aus A durch Streichen der i-ten Zeile und j-ten Spalte sowie deren Multiplikation mit (−1)i+j entsteht: a11 a12 . . . a1j . . . a1n a21 a22 . . . a2j . . . a2n Aij := (−1)i+j ·
.. .. . . ai1 ai2 .. .
.. .
an1 an2
...... .. ...... .. ... . ... . . . . aij . . . ain ...... .. ... . . . . anj
...... .. ... . . . . ann
Die Determinante Aij nennt man auch Adjunkte von A. Dann gilt f¨ ur beliebige s, t ∈ {1, 2, . . . , n} und s = t: (1)
A = at1 · At1 + at2 · At2 + . . . + atn · Atn ( Entwicklung von A nach der t-ten Zeile“) ” = a1t · A1t + a2t · A2t + . . . + ant · Ant ( Entwicklung von A nach der t-ten Spalte“); ” (2) 0 = as1 · At1 + as2 · At2 + . . . + asn · Atn = a1s · A1t + a2s · A2t + . . . + ans · Ant . Vor dem Beweis drei Beispiele zwecks Erl¨ auterung des Satzes. (1.) Entwickelt man 1 0 3 A= 2 1 0 4 4 0 nach der 1. Spalte, so erh¨ alt man 0 3 0 3 1 0 = 12. +4· −2· A= 1· 1 0 4 0 4 0
3.1 Determinanten
119
Besser ist jedoch eine Entwicklung nach der 3. Spalte: A = 3 · 24 14 = 12. (2.) Entwickelt man die Determinante 0 0 0 4
0 0 3 4
0 2 3 4
1 2 3 4
nach der ersten Zeile, die entstehende Determinante wiederum nach der ersten Zeile, usw., so erh¨ alt man 0 0 2 0 3 = (−2) · (−3) · 4 = 24. A = 1 · (−1) · 0 3 3 = (−2) · 4 4 4 4 4
(3.) Die Richtigkeit der Aussage (1) aus Satz 3.1.10 f¨ ur n = 3 und t = 1 erkennt man wie folgt: |aij |3 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − (a12 a21 a33 + a11 a23 a32 + a13 a22 a31 ) = a11 (a22 a33 − a23 a32 ) + a12 (a23 a31 − a21 a33 )+ a13 (a21 a32 − a22 a31 ) a23 = a11 · aa22 + a · − aa21 12 32 a33 31 = a11 A11 + a12 A12 + a13 A13 .
a23 a33
+ a13 · aa21 31
a22 a32
Nun aber zum Beweis von Satz 3.1.10. (1): Wegen der S¨ atze 3.1.4 und 3.1.6 gen¨ ugt es, die Behauptung nur f¨ ur t = 1 und Zeilen zu beweisen. achst alle diejenigen Glieder zusamIn der Formel f¨ ur |aij |n wollen wir zun¨ menfassen, in denen a11 vorkommt. Offenbar erhalten wir (−1)I(1,s(2),...,s(n)) a2s(2) . . . ans(n) + R, |aij |n = a11 · s∈Sn ,s(1)=1
wobei R die Summe aller derjenigen Summanden der Determinantensumme bezeichnet, in denen a11 nicht vorkommt. Da 1 keinen Einfluß auf I((1, s(2), . . . , s(n))) hat, gilt dann |aij |n = a11 ·A11 + R. Nun wollen wir kl¨ aren, mit welchem Faktor a1j f¨ ur j ≥ 2 in einer Darstellung der Form |aij |n = a1j · x + Rx zu multiplizieren ist (Rx bezeichnet die Summe aller derjenigen Summanden in der Definition von |aij |n , in denen a1j nicht auftritt). Dazu vertauschen wir in A := |aij |n der Reihe nach die j-te Spalte mit allen weiter links stehenden Spalten. Das sind im Ganzen j − 1 Vertauschungen. Nach diesen Vertauschungen ist eine Determinante A′ mit
120
3 Lineare Gleichungssysteme, Determinanten und Matrizen
a1j a11 a12 . . . a2,j−1 a1,j+1 . . . a1n a a a . . . a2,j−1 a2,j+1 . . . a2n A := 2j 21 22 ....................................... anj an1 an2 . . . an,j−1 an,j+1 . . . ann ′
und A′ = (−1)j−1 · |aij |n (wegen Satz 3.1.6) entstanden. Nach den obigen ¨ Uberlegungen f¨ ur a11 gilt nun A′ = a1j · A′11 + R′ , wobei A′11 aus A durch Streichen der ersten Zeile und j-ten Spalte entsteht. Hieraus folgt A = a1j · (−1)j+1 · A′11 + Rx = a1j · A1j + Rx . Unsere Behauptung (1) ist damit f¨ ur t = 1 und Zeilen bewiesen. (2): Wegen der S¨ atze 3.1.4 und 3.1.6 k¨ onnen wir uns auf den Beweis der Behauptung f¨ ur t = 1, s = 2 und Zeilen beschr¨anken. Nach Satz 3.1.7 ist die Determinante a21 a22 . . . a2n a21 a22 . . . a2n a31 a32 . . . a3n ................ an1 an2 . . . ann gleich 0. Entwickelt man diese Determinante nach der ersten Zeile, so erh¨alt man 0 = a21 · A11 + a22 · A12 + . . . + a2n · A1n . Mit Hilfe von Satz 3.1.10 k¨ onnen wir jetzt auch eine erste Anwendung der Determinanten beim L¨ osen linearer Gleichungssysteme beweisen. Satz 3.1.11 (Cramersche3 Regel) Gilt f¨ ur das LGS (*) n = m und ist die Koeffizientendeterminante A = |aij |n von (*) ungleich 0, so hat (*) genau eine L¨osung, die man wie folgt berechnen kann: a11 a12 . . . a1,j−1 b1 a1,j−1 . . . a1n 1 a21 a22 . . . a2,j−1 b2 a2,j+1 . . . a2n xj = · A ..................................... an1 an2 . . . an,j−1 bn an,j+1 . . . ann =: Aj (j = 1, 2, . . . , n). Aj entsteht dabei aus A, indem man die j-te Spalte durch die Spalte aus den Elementen b1 , b2 , . . . , bn ersetzt.
Beweis. F¨ ur n = 1 ist unsere Behauptung trivial. Falls n ∈ {2, 3}, folgt die Cramersche Regel aus den zu Beginn des Abschnitts 3.1 angegebenen 3
Gabriel Cramer (1704–1752), Schweizer Mathematiker. Publizierte 1750 eine verbale Beschreibung der Cramerschen Regel.
3.1 Determinanten
121
Rechnungen. Die dabei benutzte L¨ osungsidee l¨aßt sich auf den allgemeinen Fall u ¨ bertragen. Multipliziert man n¨ amlich die i-te Gleichung von (*) mit der Adjunkte Aij (i = 1, 2, . . . , n) und addiert anschließend s¨ amtliche erhaltenen Gleichungen: a11 x1 + a12 x2 + . . . + a1j xj + . . . + a1n xn = b1 ·A1j a21 x1 + a22 x2 + . . . + a2j xj + . . . + a2n xn = b2 ·A2j .. . ............................................ + an1 x1 + an2 x2 + . . . + anj xj + . . . + ann xn = bn ·Anj , so erh¨ alt man A · xj = b1 A1j + . . . + bn Anj , da nach Addition der multiplizierten Gleichungen und Zusammenfassung die Variable xs (s ∈ {1, 2, . . . , n}) mit a1s A1j + a2s A2j + . . . + ans Anj multipliziert wird und dieser Ausdruck f¨ ur s = j gleich 0 sowie f¨ ur s = j gleich der Determinante A ist (nach Satz 3.1.10). Man erkennt nun unschwer, daß die Determinante Aj mit dem Ausdruck b1 A1j + . . . + bn Anj u ¨bereinstimmt, indem man Aj nach der j-ten Spalte entwickelt. Damit gilt xj = A−1 · Aj , falls A = 0, womit unser LGS (*) h¨ochstens eine L¨ osung besitzt. ur j = 1, 2, . . . , n tats¨achlich Umgekehrt rechnet man nach, daß xj = A−1 ·Aj f¨ eine L¨ osung von (*) ist: ai1 A−1 A1 + ai2 A−1 A2 + . . . + ain A−1 An = A−1 (ai1 (b1 A11 + b2 A21 + . . . + bn An1 ) + . . . + ain (b1 A1n + b2 A2n + . . . + bn Ann )) = A−1 (b1 (ai1 A11 + ai2 A12 + . . . + ain A1n ) + . . . + bn (ai1 An1 + ai2 An2 + . . . + ain Ann )) = bi (i = 1, . . . , n). Als unmittelbare Folgerung aus dem eben bewiesenen Satz erh¨alt man: Satz 3.1.12 (mit Definitionen) (1) Ein homogenes LGS (*) mit n = m besitzt genau dann nur die sogenannte triviale L¨ osung x1 = x2 = . . . = xn = 0, wenn die Koeffizientendeterminante von (*) ungleich 0 ist. (2) Hat das homogene LGS (*) mit n = m außer der trivialen L¨osung noch eine andere, eine sogenannte nichttriviale L¨ osung, so muß notwendig die Koeffizientendeterminante A gleich 0 sein.
122
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Beispiele f¨ ur die Berechnung von Determinanten: (1.) Falls man von Determinanten, in denen eine Zeile (oder Spalte) das Vielfache einer anderen Zeile (oder Spalte) ist, absieht, sind Determinanten in Dreiecksgestalt“ (das sind Determinanten, in denen oberhalb oder ” unterhalb der Haupt- bzw. Nebendiagonalen lauter Nullen stehen) am einfachsten zu berechnen. Entwickelt man n¨amlich eine solche Determinante zeilen- bzw. spaltenweise, so erh¨ alt man: a11 a12 a13 . . . a1n a11 0 0 ... 0 0 a22 a23 . . . a2n a21 a22 0 . . . 0 0 0 a33 . . . a3n = a31 a32 a33 . . . 0 = a11 · a22 · . . . · ann .................... .................... 0 0 0 . . . ann an1 an2 an3 . . . ann und 0 0 0 . . . a1n a11 a12 a1,n−1 . . . a1n 0 0 0 . . . a2n a21 a22 a2,n−1 . . . 0 ........................ = b · ............................. 0 an−1,2 . . . . an−1,n an−1,1 an−1,2 0 ... 0 an1 . . . . . ann an1 0 0 ... 0 = b · a1n · a2,n−1 · . . . · an1 , wobei b :=
1, −1
falls n ≡4 0 oder n ≡4 1, sonst.
Das letzte Ergebnis erh¨ alt man u uberstehenden ¨brigens leicht aus dem dar¨ durch Spaltenvertauschungen unter Beachtung von Satz 3.1.6. (2.) Komplizierter aufgebaute Determinanten lassen sich mit Hilfe der in den S¨ atzen 3.1.6 und 3.1.9 genannten Eigenschaften solange umformen“, bis ” sie obige (einfach zu berechnende) Gestalt haben. Um die dabei auftretenden Rechnungen durchsichtiger“ zu machen, vereinbaren wir, die ” Addition des α-fachen der i-ten Zeile zur j-ten Zeile durch a11 a21 .. . ai1 .. . aj1 .. . an1
a12 a22 .. . ai2 .. . aj2 .. . an2
a13 a23 .. . ai3 .. . aj3 .. . an3
... ... ...... ... ... ...... ... ... ......... ...
a1n a2n .. . ain .. +α· . ajn .. . ann
und das Vertauschen der i-ten mit der j-ten Zeile durch
3.1 Determinanten
a11 a21 .. . ai1 .. . aj1 .. . an1
a12 a22 .. . ai2 .. . aj2 .. . an2
a13 a23 .. . ai3 .. . aj3 .. . an3
... ... ...... ... ... ...... ... ... ...... ... ...
123
a1n a2n .. . ain .. . ajn .. . ann
zu kennzeichnen. Entsprechendes sei f¨ ur Spalten vereinbart. Außerdem schreiben wir anstelle von +α· f¨ ur α = 1 (bzw. α = −1) kurz + (bzw. −). Die Entwicklung einer Determinante nach einer gewissen Zeile oder Spalte kennzeichnen wir durch entsprechendes Anbringen des Zeichens ⋆. Die Determinante 1 2 0 3 1 1 1 1 −3 1 2 0 0 1 −1 1 l¨ aßt sich dann z.B. wie folgt berechnen: 1 1 −3 0
2 1 1 1
0 1 2 −1
3 − +3· 1 =
0 1
1 0 0 0
2 0 3 −1 1 −2 = +7· + 7 2 9 1 −1 1
1 0 0 0
2 −1 0 0
0 1 9 0
3 −2 =9 −5 −1
Aus diesem Beispiel ist ein allgemeines Verfahren zur Berechnung von Determinanten ablesbar: Man u uhrt mittels Vertauschen von Zeilen (bzw. Spalten (Satz 3.1.6 ¨ berf¨ beachten!)) und Addition von Vielfachen einer Zeile (bzw. Spalte) zu einer anderen Zeile (bzw. Spalte) die Determinante A in eine mit gleichem Wert, die von Dreiecksgestalt ist. Die dabei auszuf¨ uhrenden Einzelschritte ¨ ahneln sehr dem Gaußalgorithmus“, mit dem wir uns etwas sp¨ater ” ausf¨ uhrlich besch¨ aftigen werden. (3.) 1 1 0 1 1
1 2 0 2 1
−1 2 1 −3 4 0 3 0 1 1 6−
3 0 4 1 1
=
1 1 0 1 1
1 2 0 2 1
−4 2 1 −3 0 0 2 0 0 1
3 0 4 1 1
⋆
= 4·
1 1 1 1
1 2 2 1
−4 2 1 −3 2 0 0 1
− −
−
124
3 Lineare Gleichungssysteme, Determinanten und Matrizen
−1 −6 2 −1 −6 2 −1 −6 2 0 −1 −3 2 2 0 = 4· 0 −1 −3 − = 4· 0 −1 −3 = −1 −2 1 −1 −2 1 0 4 −1 ⋆
0 0 = 4· 1 0 ⋆
−1 −3 = −52 (−4) · 4 −1
−
(4.)
a2
− ? ? (a + 1)2 (a + 2)2
b2
(b + 1)2 (b + 2)2
c2
(c + 1)2 (c + 2)2 − ? 2a + 1 2a + 2
a2 = 2·
b2
2b + 1
2b + 2
c2
2c + 1
2c + 2
=
= 2·
a2
2a + 1
4a + 4
b2
2b + 1
4b + 4
c2
2c + 1
4c + 4
a2
2a + 1
1
b2
2b + 1
1
c2
2c + 1
1
− −
a2 2a + 1 1 b + a 1 = 2 · b2 − a2 2(b − a) 0 = 4 · (b − a) · (c − a) · c + a 1 c2 − a2 2(c − a) 0 ⋆ = 4(b − a)(c − a)(b − c)
(5.) Sei D := |dij |n eine Determinante n-ter Ordnung mit a f¨ ur i = j, dij := b sonst. D l¨ aßt sich wie folgt berechnen: a
b
b
b
...
b
b
a
b
b
...
b
.. .
.. .
.. .
.. .
...
b
b
b
b
...
.. . a
+
+ + .. .
!
3.1 Determinanten
a + (n − 1)b a + (n − 1)b . . . a + (n − 1)b b a ... b = .. .. .. . . ... . b b ... a
= (a + (n − 1)b)·
1
1
1
1
...
1
b
a
b
b
...
b
b
b
a
b
...
b
.. .
.. .
.. .
.. .
b
b
b
b
...... ... ...
.. . a
125
−b· −b· .. .
−b·
1 1 1 ... 1 0 a − b 0 ... 0 = (a + (n − 1)b) · 0 0 a − b . . . 0 ....................... 0 0 0 ... a− b = (a + (n − 1)b) · (a − b)n−1 (6.) Die Determinante der Form 1 x1 x21 . . . xn−1 1 Vn (x1 , . . . , xn ) :=
1 x2 x22 . . . xn−1 2 .................. 1 xn x2n . . . xn−1 n
nennt man Vandermondesche4 Determinante (n ≥ 2). Durch vollst¨andige Induktion u ¨ber n wollen wir zeigen, daß der Wert dieser Determinante (xi − xj ) i>j 1≤i,j≤n
4
ist ( i∈{1,...,n} αi := α1 · α2 · . . . · αn ). (I) F¨ ur n = 2 gilt offensichtich 1 x1 1 x2 = x2 − x1 .
Alexandre Th´eophile Vandermonde (1735–1796), franz¨ osischer Mathematiker. Schrieb erste zusammenfassende Darstellung der Determinanten im Jahre 1776.
126
3 Lineare Gleichungssysteme, Determinanten und Matrizen
(II) Angenommen, die Behauptung sei f¨ ur Vandermondesche Determinanten (n − 1)-ter Ordnung richtig. Subtrahiert man in einer Vandermondeschen Determinante Vn (x1 , . . . , xn ) das x1 -fache der (n − 1)-ten Spalte von der n-ten Spalte, dann das x1 fache der (n − 2)-ten Spalte von der (n − 1)-ten Spalte, usw., so erh¨alt man 1 0 0 ... 0 1 x2 − x1 x2 (x2 − x1 ) . . . x2n−2 (x2 − x1 ) Vn (x1 , . . . , xn ) = 1 x3 − x1 x3 (x3 − x1 ) . . . x3n−2 (x3 − x1 ) . ............................................. 1 xn − x1 xn (xn − x1 ) . . . xn−2 (xn − x1 ) n Entwickelt man nun diese Determinante nach der erten Zeile und klammert die gemeinsamen Faktoren der einzelnen Zeilen aus, ergibt sich 1 x2 . . . xn−2 2 1 x3 . . . xn−2 3 Vn (x1 , . . . , xn ) = (x2 − x1 )(x3 − x1 ) . . . (xn − x1 ) . .............. 1 xn . . . xn−2 n = Vn−1 (x2 , . . . , xn )
Unter Verwendung der Induktionsannahme erh¨alt man hieraus die Behauptung (xi − xj ) . Vn (x1 , . . . , xn ) = i>j 1≤i,j≤n
3.2 Matrizen Der nachfolgend eingef¨ uhrte Begriff der Matrix wird es uns erm¨oglichen, LGS sehr u ¨ bersichtlich und kurz zu behandeln. Definition
Ein rechteckiges Ordnungsschema der Form ⎛ ⎞ a11 a12 a13 . . . a1n ⎜ a21 a22 a23 . . . a2n ⎟ ⎜ ⎟ ⎝ ...................... ⎠ am1 am2 am3 . . . amn (kurz mit (aij )m,n bezeichnet)
aus m Zeilen und n Spalten mit Elementen aij ∈ K heißt Matrix vom Typ (m, n) u ¨ber K bzw. (m, n)-Matrix. Die Menge aller Matrizen des Typs (m, n) u ¨ber K sei mit K m×n
3.2 Matrizen
127
bezeichnet. Man beachte: Im Unterschied zu einer Determinante ist eine Matrix keine (!) Rechenvorschrift f¨ ur ihre Elemente, sondern bloß ein Ordnungsschema, das man mit einem Schrank, in dem mehrere Reihen von Schubladen untereinander angeordnet sind, vergleichen kann. Mathematisch interessant wird ein solcher Schrank“ erst dann, wenn seine Schubf¨acher“ mit irgendwel” ” chen Dingen gef¨ ullt sind und wenn mit diesen Dingen dann auf gewisse Weise gearbeitet“ wird. Wir werden deshalb f¨ ur Matrizen gewisse Verkn¨ upfungen ” (Operationen) einf¨ uhren, die das Arbeiten“ mit ihnen erm¨oglichen werden. ” Zun¨ achst jedoch Beispiele (1.) F¨ ur das LGS (*) werden wir nachfolgend zwei Matrizen betrachten: ⎞ ⎛ a11 a12 a13 . . . a1n ⎜ a21 a22 a23 . . . a2n ⎟ ⎟ A := ⎜ ⎝ ...................... ⎠ am1 am2 am3 . . . amn und
wobei
( Koeffizientenmatrix von (*)“ ) ” ⎞ ⎛ a11 a12 a13 . . . a1n b1 ⎜ a21 a22 a23 . . . a2n b2 ⎟ ⎟ (A, b) := ⎜ ⎝ .......................... ⎠ am1 am2 am3 . . . amn bm
( erweiterte Koeffizientenmatrix“ bzw. ” Systemmatrix von (*)“), ” ⎛ ⎞ b1 ⎜ b2 ⎟ ⎜ ⎟ b := ⎜ . ⎟ ⎝ .. ⎠ bm
auch einzeln Verwendung findet.
(2.) Gewisse Informationen u ¨ ber Graphen kann man ebenfalls in Form von Matrizen angeben. Z.B. l¨ aßt sich jedem gerichteten Graphen G ohne Schlingen mit der Knotenmenge {1, 2, . . . , n} eine sogenannte Adjazenzmatrix B := (bij )n,n zuordnen, wobei bij die Anzahl der B¨ogen von G angibt, die vom Knoten i zum Knoten j gerichtet sind. Speziell f¨ ur
1q
128
-q? 2
3 Lineare Gleichungssysteme, Determinanten und Matrizen
G:
erh¨ alt man
⎛
-q 4 3 q? 6 I @ @ @ @ @ q5 @ @? Rq 6 @
0 ⎜0 ⎜ ⎜0 B=⎜ ⎜0 ⎜ ⎝0 0
2 0 0 0 0 0
1 1 0 0 1 1
0 0 1 0 0 0
0 0 0 1 0 0
⎞ 0 0⎟ ⎟ 0⎟ ⎟ . 1⎟ ⎟ 0⎠ 0
Weitere Matrizentypen, denen man Graphen zuordnen kann, findet man ¨ z.B. in Band 2 bzw. bei den Ubungsaufgaben. Matrizen mit mindestens zwei Zeilen und mindestens zwei Spalten bezeichnen wir i.allg. nachfolgend mit großen deutschen Buchstaben: A, B, C, D, E, . . . . Im Unterschied dazu schreiben wir f¨ ur (m, 1)-Matrizen a, b, c, e, . . . , x, y, . . . und f¨ ur (1, m)-Matrizen aT , bT , cT , eT , . . . , xT , yT , . . . . F¨ ur manche Untersuchungen ist es n¨ utzlich, die Spalten bzw. Zeilen einer Matrix als Spalten- bzw. Zeilenmatrizen aufzufassen. Wir schreiben dann anstelle von ⎛ ⎞ a11 a12 a13 . . . a1n ⎜ a21 a22 a23 . . . a2n ⎟ ⎟ A := ⎜ ⎝ ...................... ⎠ am1 am2 am3 . . . amn auch A = (a1 , a2 , . . . , an ), wobei ⎞ ⎛ a1j ⎟ ⎜ ai := ⎝ ... ⎠ amj
bzw.
(j = 1, 2, . . . , n)
3.2 Matrizen
⎛
129
⎞
bT1 ⎜ .. ⎟ A = ⎝ . ⎠ , wobei bTi = (ai1 , ai2 , . . . , ain ), i = 1, 2, . . . , m. bTm
Bezeichnungen f¨ ur oft auftretende Matrizen aus K n×n sind: ⎛ ⎞ 0 0 0 ... 0 ⎜ 0 0 0 ... 0 ⎟ ⎟ ⎜ ⎟ Om,n := ⎜ ⎜ . . . . . . . . . . . ⎟ (”Nullmatrix“) ⎝ 0 0 0 ... 0 ⎠ 0 0 0 ... 0
En
Dn
(∈ K m×n ), ⎛ ⎞ 1 0 0 ... 0 0 ⎜ 0 1 0 ... 0 0 ⎟ ⎜ ⎟ ⎟ := ⎜ ⎜ .............. ⎟ ⎝ 0 0 0 ... 1 0 ⎠ 0 0 0 ... 0 1
( Einheitsmatrix“) ”
(∈ K n×n ), ⎛ 0 d1 0 0 . . . 0 ⎜ 0 d2 0 . . . 0 0 ⎜ . . . . . . . . . . . . . . . . . . . . . := ⎜ ⎜ ⎝ 0 0 0 . . . dn−1 0 0 0 0 . . . 0 dn (∈ K n×n ).
⎞ ⎟ ⎟ ⎟ ⎟ ⎠
( Diagonalmatrix“) ”
Jeder Matrix A := (aij )n×n aus K n×n l¨ aßt sich eine Determinante a11 a12 . . . a1n a21 a22 . . . a2n ................ an1 an2 . . . ann zuordnen, die mit detA
bzw.
|A|
bezeichnet wird. Zwei Matrizen A = (aij )m,n und B = (bij )p,q wollen wir genau dann als gleich ansehen, wenn sie vom gleichen Typ sind und wenn aij = bij f¨ ur alle i ∈ {1, . . . , m} und alle j ∈ {1, . . . , n} ist. Wir schreiben, falls Gleichheit der Matrizen A und B vorliegt, A = B.
130
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Operationen u ¨ ber Matrizen5 (1.) Addition von Matrizen Seien A = (aij )m,n und B = (bij )m,n zwei Matrizen gleichen Typs. Dann versteht man unter der Summe von A und B die Matrix A + B := (aij + bij )m,n . Beispiel
1 0 3 2 1 1
+
1 1 1 0 3 4
=
2 1 4 2 4 5
Offenbar gilt f¨ ur beliebige Matrizen A, B, C aus K m×n : A+B A + (B + C) A + Om,n (aij )m,n + (−aij )m,n
= = = =
B + A, (A + B) + C, A, Om,n ,
woraus sich unmittelbar der folgende Satz ergibt: Satz 3.2.1 (K m×n ; +) ist eine abelsche Gruppe. (2.) Multiplikation von Matrizen Die Matrizenmultiplikation ist nur f¨ ur sogenannte verkettete Matrizen A = art, d.h., die Anzahl der Spalten von A muß (aij )m,n und B = (bij )n,q erkl¨ mit der Anzahl der Zeilen von B u ¨ bereinstimmen. Das Produkt der Matrix A ∈ K m×n mit der Matrix B ∈ K n×q ist die Matrix C := A · B ∈ K m×q , wobei C := (cij )m,q und cij :=
n
k=1
aik · bkj .
alt man also, indem man das sogenannte innere Das Element cij von A ·B erh¨ ” Produkt“ der i-ten Zeile von A mit der j-ten Spalte von B bildet:
5
Zun¨ achst nur die Addition und Multiplikation von Matrizen. Nach Anwendungen und Eigenschaften dieser Operationen werden noch zwei weitere Operationen eingef¨ uhrt.
3.2 Matrizen
· # c # + c · # c c # ## + .. cc c # # c . c + # # c c # # · # c cb1j c c # # # c c # # # c cb2j # # # c # # # ai1 ai2 . . . ain c .. c . c cbnj
131
¨ Ubersichtlich l¨ aßt sich diese Produktbildung mit Hilfe des Falkschen Scheuhren (sowohl bei konkreten Berechnungen als auch bei einigen mas6 ausf¨ ¨ theoretischen Uberlegungen). Man ordnet dazu die Elemente von A links unten, die von B rechts oben wie folgt an: B A
und berechnet ein beliebiges Element cij von C := A · B als inneres Produkt der i-ten Zeile von A mit der j-ten Spalte von B, in deren Schnittpunkt“ es ” dann aufgeschrieben wird: b12 b22 .. . bn2
b11 b21 .. . bn1 a11 a12 . . . a1n a21 a22 . . . a2n .. . ai1 ai2 . . . ain .. . am1 am2 . . . amn
6
Pn
k=1
Pn
k=1
Pn
k=1
Pn
k=1
a1k bk1 a2k bk1
aik bk1
amk bk1
Pn
k=1
Pn
k=1
Pn
k=1
Pn
k=1
b1j b2j .. . bnj
...
a1k bk2 . . . a2k bk2 . . . ... aik bk2 . . . ... amk bk2 . . .
Pn
k=1
...
a1k bkj . . .
Pn
a2k bkj . . . .. . ...
Pn
aik bkj . . . .. . ...
k=1
k=1
Pn
k=1
b1q b2q .. . bnq
amk bkj . . .
Pn
a1k bkq
k=1
Pn
a2k bkq
k=1
Pn
k=1
Pn
k=1
aik bkq
amk bkq
Sigurd Falk schlug 1951 dieses Schema in Ein u ur die ¨ bersichtliches Schema f¨ ” Matrizenmultiplikation“ (Z. Angew. Math. Mech. 31 (1951), S. 152–153) vor.
132
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Beispiele und einige Anwendungen: ⎞ ⎛ 2 −1 0 ⎠ ⎝ (1.) Seien A = 11 1 2 2 und B = 0 0 . Aus 1 3 2 −1 0 0 1 3 1 1 0 2 −1 1 2 2 4 5
ergibt sich A·B =
2 −1 4 5
.
(2.) Bildet man f¨ ur die Adjazenzmatrix B eines schlingenlosen, gerichteten Graphen G (siehe S. 128) die Matrix C := (. . . ((B · B) · B) . . . · B) · B, k
so gibt das Element cij von C die Anzahl der gerichteten Kantenfolgen der L¨ ange k vom Knoten i zum Knoten j an (siehe dazu auch Band 2). F¨ ur den Graphen G von S. 128 gilt z.B. ⎛ ⎞ 0 0 0 2 1 1 ⎜0 0 0 0 1 1⎟ ⎜ ⎟ ⎜0 0 2 0 0 0⎟ ⎜ ⎟ (B · B) · B = ⎜ ⎟ ⎜0 0 0 2 0 0⎟ ⎝0 0 0 0 1 1⎠ 0 0 0 0 1 1
¨ (Beweis: UA). (3.) F¨ uhrt man in der Matrixgleichung
A·x =b mit A = (aij )m,n , ⎛
⎜ ⎜ x=⎜ ⎝
x1 x2 .. . xn
⎞
⎛
⎜ ⎟ ⎜ ⎟ ⎟ und b = ⎜ ⎝ ⎠
die Multiplikation durch, erh¨ alt man
b1 b2 .. . bm
⎞ ⎟ ⎟ ⎟ ⎠
3.2 Matrizen
⎛
⎛
⎞ b1 a11 x1 + a12 x2 + . . . + a1n xn b2 ⎜ a21 x1 + a22 x2 + . . . + a2n xn ⎟ ⎜ ⎜ ⎟ ⎜ . ⎝ ................................ ⎠ = ⎜ ⎝ .. am1 x1 + am2 x2 + . . . + amn xn bm
133
⎞
⎟ ⎟ ⎟. ⎠
Nach Definition der Gleichheit von Matrizen ist dies genau dann erf¨ ullt, wenn die Gleichungen des LGS (*) g¨ ultig sind. Also: Durch die Angabe einer Matrixgleichung der Form A · x = b wird ein LGS (*) bestimmt und umgekehrt kann man aus einem LGS (*) eine Matrixgleichung der Form A · x = b erhalten. Wir werden deshalb bei der Behandlung von LGS keinen Unterschied zwischen (*) und der zugeh¨ origen Matrixgleichung machen. Speziell schreiben wir anstelle des LGS (*) nachfolgend A · x = b. (4.) Additionsmatrizen Sogenannte Additionsmatrizen erh¨ alt man aus der Einheitsmatrix En , indem man ein Element ast = 0 (s = t) durch ein λ ∈ K ersetzt. Bezeichnen wollen wir solche Matrizen mit Dn,s,t;λ bzw. kurz mit Ds,t;λ . Multipliziert man eine (n, n)-Matrix A mit Dn,s,t;λ , so entsteht das Produkt A · Dn,s,t;λ Dn,s,t;λ · A aus A, indem man in A zur s-ten Zeile das λ-fache t-ten Spalte das λ-fache der t-ten Zeile der s-ten Spalte addiert. (5.) Permutationsmatrizen Permutationsmatrizen sind (n, n)-Matrizen, in deren Zeilen und Spalten je eine 1 und sonst lauter Nullen stehen. Multipliziert man eine (n, n)-Matrix A von links mit einer Permutationsmatrix, so unterscheidet sich die Ergebnismatrix“ von A nur durch eine ” andere Reihenfolge der Zeilen. Bei der Multiplikation von rechts, werden in A Spalten vertauscht.
134
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Der nachfolgende Satz faßt einige wichtige Regeln f¨ ur die Matrizenmultiplikation zusammen. Satz 3.2.2 Es gilt: (1) (2) (3) (4) (5)
∀ A ∈ K m×n ∀ B, C ∈ K n×q : A · (B + C) = A · B + A · C; ∀A, B ∈ K m×n ∀ C ∈ K n×q : (A + B) · C = A · C + B · C; ∀ A ∈ K m×n ∀ B ∈ K n×q ∀C ∈ K q×p : A · (B · C) = (A · B) · C; ∀ A ∈ K n×n : A · En = En · A = A. Die Matrizenmultiplikation ist i.allg. nicht kommutativ.
Beweis.
¨ UA.
Als unmittelbare Folgerung erhalten wir hieraus sowie aus Satz 3.2.1: Satz 3.2.3 (1) (K n×n ; ·) ist eine Halbgruppe mit dem Einselement En . (2) (K n×n ; +, ·) ist ein Ring. Definitionen
Sei A ∈ K n×n . Dann heißt A regul¨ ar :⇐⇒ detA = 0.
Krn×n sei die Menge aller (n, n)-Matrizen u ¨ber K, die regul¨ar sind. Eine nicht regul¨ are (n, n)-Matrix nennt man auch singul¨ ar. Satz 3.2.4 ∀A ∈ Krn×n ∃A′ ∈ K n×n : A · A′ = En . Beweis. Sei
Vor dem allgemeinen Beweis ⎛ 1 A=⎝4 0
A ist offenbar regul¨ ar (detA = 7). Die wie folgt aufgebaut: ⎛ x11 A′ = ⎝ x21 x31
zun¨ achst ein Beispiel. ⎞ 0 3 1 5 ⎠. 1 0
gesuchte Matrix A′ mit A · A′ = E3 sei ⎞ x12 x13 x22 x23 ⎠ . x32 x33
Multipliziert man A mit A′ , so erh¨ alt man folgende Bedingungen f¨ ur die Unbekannten xij :
3.2 Matrizen
1 0 3 4 1 5 0 1 0
x11 4x11
135
x11 x12 x13 x21 x22 x23 x31 x32 x33 + 3x31 =1 x12 + 3x32 =0 x13 + 3x33 =0 + x21 + 5x31 =0 4x12 + x22 + 5x32 =1 4x13 + x23 + 5x33 =0 =0 =0 =1. x21 x22 x23
Die xij sind also L¨ osungen von drei LGS mit gleicher Koeffizientenmatrix A, jedoch unterschiedlichen rechten Seiten. Nach Satz 3.1.11 gibt es f¨ ur jedes dieser LGS genau eine L¨ osung, die man wie folgt berechnen kann: 1 0 3 x11 = |A|−1 · 0 1 5 = |A|−1 · A11 = −5/7, 0 1 0 ⋆ 1 1 3 x21 = |A|−1 · 4 0 5 = |A|−1 · A12 = 0, 0 0 0 ⋆ 1 0 1 x31 = |A|−1 · 4 1 0 = |A|−1 · A13 = 4/7, 0 1 0 ⋆ 0 0 3 x12 = |A|−1 · 1 1 5 = |A|−1 · A21 = 3/7, usw. 0 1 0 ⋆ Wir erhalten
⎛
⎞ −5/7 3/7 −3/7 0 1 ⎠ A′ = ⎝ 0 4/7 −1/7 1/7
mit |A′ | = 0. are Matrix, A′ = (xij )n,n , xj = Es sei nun A = (aij )n,n eine beliebige regul¨ (xij )n,1 die Kurzbezeichnung f¨ ur die Spalten von A′ (j = 1, . . . , n) und ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ e1 = ⎜ ... ⎟ , e2 = ⎜ ... ⎟ , . . . , en = ⎜ ... ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝0⎠ ⎝0⎠ ⎝0⎠ 0 0 1 Bezeichnungen f¨ ur die Spalten von En . Dann gilt
136
3 Lineare Gleichungssysteme, Determinanten und Matrizen
A · A′ = En ⇐⇒ ∀j ∈ {1, 2, . . . , n} : A · xj = ej . Wegen |A| = 0 sind die den Matrixgleichungen A ·xj = ej entsprechenden LGS nach der Cramerschen Regel eindeutig l¨ osbar. Man erh¨ alt: xij = |A|−1 · Aji ,
wobei i, j ∈ {1, 2, . . . , n} und Aji die Adjunkten von |A| bezeichnen. Also existiert ein A′ mit A · A′ = En und es gilt ⎛ ⎞ A11 /|A| A21 /|A| . . . An1 /|A| ⎜ A12 /|A| A22 /|A| . . . An2 /|A| ⎟ ⎟ A′ = ⎜ ⎝ ............................. ⎠. A1n /|A| A2n /|A| . . . Ann /|A|
Es sei noch bemerkt, daß der sp¨ ater angegebene Satz 3.4.3 ein besseres Verfahren zur Berechnung von A′ liefert. Bevor wir uns noch etwas n¨ aher mit der im Satz 3.2.4 beschriebenen Matrix A′ besch¨ aftigen werden, zun¨ achst ein Satz, aus dem sich die Regularit¨at von A’ folgern l¨ aßt. Satz 3.2.5 (Determinantenmultiplikationssatz) ∀A, B ∈ K n×n : |A · B| = |A| · |B|. Beweis. Man u ¨berlegt sich leicht, daß die Behauptung richtig ist, wenn A oder B eine Diagonalmatrix ist. Wegen Satz 3.1.9 und der oben angegebenen Eigenschaften von Additionsmatrizen ist der Satz offenbar g¨ ultig, falls es sich bei A oder B um eine Additionsmatrix handelt. ¨ Man u daß man jede (n, n)-Matrix durch Multiplikation ¨ berlegt sich nun (UA), von links und rechts mit gewissen Additionsmatrizen in eine Diagonalmatrix u uhren kann. Speziell f¨ ur A und B seien C1 , . . . , Ct gewisse Additionsma¨ berf¨ trizen, f¨ ur die A∗ := C1 · C2 · . . . · Cr · A · Cr+1 · . . . · Cs und B∗ := Cs+1 · . . . Cs+r′ · B · Cs+r′ +1 · . . . · Ct Diagonalmatrizen sind. Da |Ci | = 1 (i ∈ {1, . . . , t}), existiert nach Satz 3.2.4 eine Matrix C′i mit Ci · C′i = En , die offenbar ebenfalls eine Additionsmatrix ist (siehe dazu den Beweis von Satz 3.2.4). Folglich gilt A = C′r · C′r−1 · . . . · C′1 · A∗ · C′s · C′s−1 · . . . · C′r+1 und B = C′s+r′ · . . . · C′s+1 · B∗ · C′t · C′t−1 · . . . · C′s+r′ +1 .
3.2 Matrizen
137
Nach dem oben Bemerktem ergibt sich hieraus |A · B| = |A∗ | · |B∗ |. Da nach Satz 3.1.9 |A| = |A∗ | und |B| = |B∗ | gilt, ist |A · B| = |A| · |B|. Ist A · A′ = En , so erh¨ alt man mit Hilfe von Satz 3.2.5 |A′ | = 1/|A|. Als unmittelbare Folgerung hieraus und aus den S¨atzen 3.2.3, 3.2.4 ergibt sich der Satz 3.2.6 (Krn×n ; ·) ist eine Gruppe. Das zu A ∈ Krn×n inverse Element A′ werden wir (analog zu den Bezeichnungen aus Kapitel 2) die zu A inverse Matrix nennen und mit A−1 bezeichnen. Nach Kapitel 2 ist A−1 eindeutig bestimmt und es gilt f¨ ur beliebige A, B ∈ Krn×n : • • •
A−1 · A = En , (A · B)−1 = B−1 · A−1 , (A−1 )−1 = A.
Es sei noch bemerkt, daß man ein LGS (*) mit regul¨arer Koeffizientenmatrix A mit Hilfe von A−1 leicht l¨ osen kann: A−1 · |
A·x = b A−1 · A · x = A−1 b En · x = x = A−1 · b
Weiter mit den Definitionen von Matrizenoperationen. (3.) Transponieren F¨ ur A ∈ K m×n bezeichnen wir mit AT diejenige Matrix aus K n×m , die aus A durch Vertauschen der Zeilen mit den Spalten entsteht, d.h., falls A = (aij )m,n , so ist AT = (a′ij )n,m und a′ij = aji f¨ ur i ∈ {1, 2, . . . , n} und j ∈ {1, 2, . . . , m}. AT heißt die zu A transponierte Matrix. Falls A = AT ist, nennt man die Matrix A symmetrisch. Man rechnet leicht nach, daß der folgende Satz gilt: Satz 3.2.7 T
(1) ∀A ∈ K m×n : (AT ) = A; T (2) ∀A, B ∈ K m×n : (A + B) = AT + BT ; (3) ∀A ∈ K m×n ∀B ∈ K n×q : (A · B)T = BT · AT .
138
3 Lineare Gleichungssysteme, Determinanten und Matrizen
(4.) Multiplikation mit Skalar F¨ ur λ ∈ K und A = (aij )m,n sei λ · A := (λ · aij )m,n , d.h., · ist eine ¨ außere Verkn¨ upfung von K × K m×n in K m×n . Beispiel 1 4 0 A := 2 1 3 3 12 0 3·A = 6 3 9 Elementare Eigenschaften dieser Multiplikation mit Skalar sind zusammengefaßt im Satz 3.2.8 F¨ ur beliebige A, B ∈ K m×n und λ, µ ∈ K gilt 1 · A = A, (λ + µ) · A = λ · A + µ · A, (λ · µ) · A = λ · (µ · A), λ · (A + B) = λ · A + λ · B. F¨ ur beliebiges A ∈ K m×n , B ∈ K n×q und λ ∈ K ist außerdem (5) λ · (A · B) = (λ · A) · B.
(1) (2) (3) (4)
(Man beachte, daß es sich bei (2), (3) und (5) um unterschiedliche + und · handelt!) Mit Hilfe der Matrizen und den auf Matrizen definierten Operationen kann ¨ man sich einen ersten Uberblick u osungsverhalten von LGS verschaf¨ ber das L¨ fen. Dies geschieht in den n¨ achsten drei S¨ atzen. Satz 3.2.9 Seien x1 , . . . , xr L¨osungen von A · x = o (oT := (0, 0, . . . , 0)) und α1 , . . . , αr ∈ K. Dann ist auch α1 · x1 + α2 · x2 + . . . + αr · xr eine L¨osung von A · x = o. Beweis. Sind x1 , . . . , xr L¨ osungen von A ·x = o, so gilt f¨ ur alle i ∈ {1, . . . , r} : A · xi = o. Hieraus ergibt sich mit Hilfe von Satz 3.2.2 und Satz 3.2.8: A · (α1 · x1 + . . . + αr xr ) = α1 · (A · x1 ) + . . . + αr · (A · xr ) = α1 · o + . . . + αr · o = o, d.h., α1 · x1 + . . . + αr · xr ist L¨ osung von A · x = o.
3.3 Rang von Matrizen
139
Satz 3.2.10 Ist x0 eine L¨osung von A·x = b und x1 eine L¨osung von A·x = o, so erh¨alt man durch x0 + x1 eine L¨osung von A · x = b. Beweis.
Nach Satz 3.2.2 gilt: A · (x0 + x1 ) = A · x0 + A · x1 = o + b = b.
Satz 3.2.11 Bezeichne L die Menge der L¨osungen von A · x = b und L0 die Menge der L¨osungen von A · x = o. Sei außerdem x0 eine gewisse (fixierte) L¨osung von A · x = b. Dann existiert f¨ ur jedes x∗ ∈ L ein x1 ∈ L0 mit x∗ = x0 + x1 , d.h., es gilt L = x0 + L0 . ullt x1 := x∗ − x0 die geforderten Beweis. Sind A · x0 = b und A · x∗ = b, so erf¨ Bedingungen, da A · (x∗ − x0 ) = A · x∗ − A · x0 = b − b = o.
3.3 Rang von Matrizen Der Begriff des Ranges einer Matrix wird es uns im Abschnitt 3.4 erm¨oglichen, L¨osbarkeitskriterien f¨ ur LGS u ¨bersichtlich und kurz zu formulieren. Definitionen • •
Unter einer Unterdeterminante einer Matrix A versteht man die Determinante einer quadratischen Matrix A′ , die aus A durch Streichen gewisser Zeilen und Spalten entsteht. oßte Ordnung unter den von Null verschieSei A ∈ K m×n \{Om,n}. Die gr¨ denen Unterdeterminanten von A heißt Rang von A. Bezeichnen werden wir den Rang von A mit rg A. Außerdem sei rg Om,n := 0.
Beispiele (1.) ⎛
⎞ 1 0 3 1 0 3 rg ⎝ 0 1 0 ⎠ = 3, da 0 1 0 = 2 = 0. 1 1 5 1 1 5
140
3 Lineare Gleichungssysteme, Determinanten und Matrizen
(2.) ⎛
⎞ 1 1 2 rg ⎝ 2 2 4 ⎠ = 1, 3 3 6
da alle Unterdeterminanten der Ordnung 2 oder 3 gleich 0 sind und eine Unterdeterminante der Ordnung 1 (hier sogar alle) = 0 ist. (3.) Sei a11 · a22 · . . . · arr = 0. Dann ist ⎛ ⎞ a11 a12 a13 . . . a1r a1,r+1 . . . a1n ⎜ 0 a22 a23 . . . a2r a2,r+1 . . . a2n ⎟ ⎜ ⎟ ⎜ 0 0 a33 . . . a3r a3,r+1 . . . a3n ⎟ ⎜ ⎟ ⎜ .. .. .. .. .. .. ⎟ ⎜. . . ... . . ... . ⎟ ⎜ ⎟ ⎜ 0 0 0 . . . arr ar,r+1 . . . arn ⎟ ⎜ ⎟ rg ⎜ . .. .. .. .. .. ⎟ = r, ⎜ .. ⎟ . . . . . . . . . . . ⎜ ⎟ ⎜ 0 0 0 ... 0 0 ⎟ . . . 0 ⎜ ⎟ ⎜ 0 0 0 ... 0 0 ⎟ . . . 0 ⎜ ⎟ ⎜. ⎟ . . . . . .. .. . . . ⎝ .. ... . . ... . ⎠ 0 0 0 ... 0 0 ... 0 da jede Unterdeterminante der Matrix mit mehr als r Zeilen mindestens eine Nullzeile enth¨ alt und a11 0 .. . 0
a12 . . . a1r a22 . . . a2r = a11 · . . . · arr = 0 .. . . . . . .. 0 . . . arr
gilt. Eine solche Matrix, deren Rang unmittelbar zu erkennen ist, wollen wir nachfolgend Matrix in Trapezform nennen. Satz 3.3.1 Der Rang einer Matrix A ¨andert sich nicht, wenn folgende sogenannte rang¨ aquivalente Umformungen der Matrix A vorgenommen werden: (1) Vertauschen zweier Zeilen (bzw. Spalten); (2) Multiplikation der Elemente einer Zeile (bzw. Spalte) mit Faktor λ ∈ K\{0}; (3) Addition des λ-fachen einer Zeile (bzw. Spalte) zu einer anderen Zeile (bzw. Spalte), λ ∈ K. Beweis.
Ergibt sich aus den Eigenschaften einer Determinante.
3.3 Rang von Matrizen
141
Satz 3.3.2 Jede Matrix A ∈ K m×n \{Om,n } l¨aßt sich durch rang¨aquivalente Umformungen in eine Matrix A′ von Trapezform ¨ uberf¨ uhren mit rg A = rg A′ . Beweis. Sei A ∈ K m×n \{Om,n }. Die aus A zu erhaltenen Matrizen bei (t) rang¨ aquivalenten Umformungen seien mit A(t) := (aij )m,n bezeichnet, t ∈ N. Durch Vertauschen von Zeilen und Spalten erh¨alt man aus A eine Matrix A(1) (1) mit a11 = 0. Addieren wir nun der Reihe nach das (1)
(1)
(1)
(1)
(1)
(1)
(−a21 /a11 )-fache der ersten Zeile zur zweiten, das
(−a31 /a11 )-fache der ersten Zeile zur dritten,. . . , das (−an1 /a11 )-fache der ersten Zeile zur n-ten, so erhalten wir eine Matrix der Form ⎛ (2) (2) (2) ⎞ a11 a12 . . . a1n ⎜ (2) ⎟ ⎜ 0 a(2) . . . a2n ⎟ 22 ⎟ ⎜ . A(2) := ⎜ . .. .. ⎟ ⎟ ⎜ . . ... . ⎠ ⎝ . 0
(2)
(2)
am2 . . . amn
Sind alle Elemente der zweiten bis m-ten Zeile gleich 0, so ist A(2) von Trapezform. Anderenfalls k¨ onnen wir durch Vertauschen der zweiten bis m-ten Zeile und Vertauschen der zweiten bis n-ten Spalte eine Matrix A(3) konstru(3) ieren, f¨ ur die a22 = 0 gilt. Analog zu oben kann man durch Addition gewisser Vielfacher der zweiten Zeile zu den darunterstehenden eine Matrix A(4) der Form ⎛ (4) (4) ⎞ (4) a11 a12 . . . a1n ⎜ (4) ⎟ ⎜ 0 a(4) ⎟ 22 . . . a2n ⎟ ⎜ ⎜ (4) ⎟ ⎜ 0 0 . . . a3n ⎟ ⎜ ⎟ ⎜ . .. .. ⎟ ⎜ .. . ... . ⎟ ⎝ ⎠ 0
(4)
0 . . . amn
erhalten, usw. Nach endlich vielen Schritten haben wir auf diese Weise eine Matrix in Trapezform konstruiert. Analog zu den Vereinbarungen u ¨ ber Determinantenumformungen, werden wir bei konkreten Rangbestimmungen die rang¨ aquivalenten Umformungen durch Pfeile angeben.
142
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Beispiel 1
rg
2
3
4
2
1
1
0
3
1
1
1
1
1
2
1
0
0
1
1
0
0
0
0
1
0
0
0
1
0
0
0
0
0
1
0
0
0
0
0
2
3
4
0
0
1
0
3
0
0
1
1
1
0
0 0 6 6
0 0
1 6 0
0
rg
0
rg
0
1
0
0
1
0
0
0
0
0
1
0
0
0
0
0
2
3
0
0
0
1
0
0
0
Zeilenvert.
= rg
0
0
0
0
0
1
0
0
0
1
0
2
3
4
2
1
1
0
3
1
1
1
1
1
1
0
0
1
1
0
0
0
0
0
1
0
0
0
0
0
1
0
0
0
0
4
2
3
0
0
3
1
0
0
1
1
1
1
0
0
0
0
0
1
0
0
0
0
0
1
0
0
0
0
0
3
2
0
0
0
0
1
0
0
0
1 3
2
Zeilenvert.
= rg
=
1
0
0 − 31 · 1 1 6 6
rg
0
−
= −2·
− −2·
= −4· −3·
−
− 31 ·
=5
¨ F¨ ur sp¨ atere Uberlegungen ben¨ otigen wir noch den Satz 3.3.3 Seien A ∈ Krm×m , B ∈ K m×n und C ∈ Krn×n . Dann gilt rg A · B · C = rg B. Beweis. Wegen Satz 3.3.1 ist unsere Behauptung offenbar richtig, wenn A und C Additionsmatrizen sind. Außerdem l¨ aßt sich jede regul¨ are (n, n)-Matrix durch Multiplikation mit Additionsmatrizen in eine Diagonalmatrix der Form
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS
⎛
143
⎞
d1 0 . . . 0 ⎜ 0 d2 . . . 0 ⎟ ⎜ ⎟ ⎝ ............ ⎠ 0 . . . . dn
mit d1 ·d2 ·. . .·dn = 0 u uhren, wobei die Multiplikationen entweder nur von ¨ berf¨ ¨ links oder nur von rechts ausgef¨ uhrt werden k¨onnen (Beweis: UA). Speziell existieren f¨ ur die Matrizen A und C gewisse Additionsmatrizen D1 , D2 , . . . , Dt mit ⎛ ⎞ a1 0 . . . 0 ⎜ 0 a2 . . . 0 ⎟ ⎟ D1 · D2 · . . . Ds · A = ⎜ ⎝ . . . . . . . . . . . . . ⎠ und 0 0 . . . am ⎞ ⎛ c1 0 . . . 0 ⎜ 0 c2 . . . 0 ⎟ ⎟ C · Ds+1 · . . . · Dt = ⎜ ⎝ ............ ⎠ . 0 0 . . . cn Nach dem oben Bemerkten gilt dann rg A · B · C = rg D1 · D2 · . . . · Ds · A · B · C · Ds+1 · Ds+2 · . . . · Dt . Man rechnet nun leicht nach, daß, falls B = (bij )m,n , ⎛ ⎞ a1 c1 b11 a1 c2 b12 . . . a1 cn b1n ⎜ a2 c1 b21 a2 c2 b22 . . . a2 cn b2n ⎟ ⎟ D1 · . . . Ds · A · B · C · Ds+1 · . . . · Dt = ⎜ ⎝ ................................ ⎠ am c1 bm1 am c2 bm2 . . . am cn bmn gilt. Unsere Behauptung folgt hieraus unter Berufung auf Satz 3.3.1, (2).
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren fu ¨r LGS Wir betrachten nachfolgend ein spezielles LGS der Form (**), von dem wir leicht feststellen werden, unter welchen Bedingungen es l¨osbar und wie die Menge der L¨ osungen beschreibbar ist. Anschließend wird gezeigt, daß man jedes LGS der Form (*) durch gewisse Umformungen auf eines der Form (**) bringen kann, ohne daß sich die L¨ osbarkeitsbedingungen und die L¨osungsmenge ¨ andern. Es sei x1
+ c1,r+1 xr+1 + . . . + c1n xn = d1 x2 + c2,r+1 xr+1 + . . . + c2n xn = d2 .................................................... xr + cr,r+1 xr+1 + . . . + crn xn = dr 0 = dr+1 .................................................... 0 = dm ,
(**)
144
3 Lineare Gleichungssysteme, Determinanten und Matrizen
wobei die Koeffizienten cij und die Absolutglieder di aus K sind. Die Matrizendarstellung von (**) ist ⎞ ⎞ ⎛ ⎛ d1 x1 ⎛ ⎞ 1 0 0 . . . 0 c1,r+1 c1,r+2 . . . c1n ⎜ x2 ⎟ ⎜ d2 ⎟ ⎟ ⎟ ⎜ ⎜ 0 1 0 . . . 0 c2,r+1 c2,r+2 . . . c2n ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ . . ⎜ ................................. ⎟ ⎜ ⎟ ⎟ ⎜ ⎜ ⎟ ⎜ ⎜ ⎟ d x ⎜ 0 0 0 . . . 1 cr,r+1 cr,r+2 . . . crn ⎟ · ⎜ r ⎟ = ⎜ r ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ 0 0 0 ... 0 0 ⎟ ⎜ . ⎟ ⎜ . ⎟ 0 . . . 0 . ⎟ ⎜ . ⎟ ⎟ ⎜ ⎟ ⎝ ................................. ⎠ ⎜ ⎜ . ⎟ ⎜ . ⎟ .. ⎠ ⎝ .. ⎠ ⎝ 0 0 0 ... 0 0 0 ... 0 dm xn bzw. kurz
C · x = d. Offenbar gilt: C · x = d hat L¨ osungen
⇐⇒ dr+1 = dr+2 = . . . = dm = 0 ⇐⇒ rg C = r = rg (C, d);
C · x hat keine L¨ osungen ⇐⇒ ∃i ≥ r + 1 : di = 0 ⇐⇒ rg C < rg (C, d). Falls dr+1 = . . . = dm = 0 ist, kann man bei Belegung der Variablen xr+1 , xr+2 , . . . , xn mit beliebigen Werten t1 , t2 , . . . , tn−r aus K wegen x1 = d1 − c1,r+1 xr+1 − . . . − c1n xn x2 = d2 − c2,r+1 xr+1 − . . . − c2n xn ...................................... xr = dr − cr,r+1 xr+1 − . . . − crn xn stets eine L¨ osung berechnen. Die Menge der L¨ osungen von (**) l¨aßt sich damit in Matrizenschreibweise wie folgt angeben: 80 > > >B > > B > > B > > B > >
> B > > B > > B > > > @ > > :
x1 x2 .. . xr xr+1 .. . xn
1˛ 0 ˛ x1 ˛ C˛ B x2 C˛ B C˛ B. C˛ B. C˛ B. C˛ B C˛ ∃t1 , . . . , tn−r ∈ K : B xr C˛ B C˛ B xr+1 C˛ B C˛ B .. @. A˛ ˛ ˛ xn
1
0
C B C B C B C B C B C B C=B C B C B C B C B A @
d1 − c1,r+1 t1 − . . . − c1n tn−r d2 − c2,r+1 t1 − . . . − c2n tn−r .. . dr − cr,r+1 t1 − . . . − crn tn−r t1 .. . tn−r
19 > > > C> > C> > C> > C> = C> C C . C> > C> > C> > C> > A> > > ;
Mittels unserer Matrizenoperationen ist eine L¨osung x aber auch in der Form
0 B B B B B B B B B B B B B @ |
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS 145 0 0 0 1 1 1 1 x1 −c1,r+1 −c1,r+2 −c1n d1 B −c2,r+1 C B −c2,r+2 C B −c2n C B C x2 C C B d2 C B B B C C C C B. C B B B . C C C .. . . C B. C B B B . C C C . . . . . C B. C B B B . C C C C B B B B C C C C x r C B dr C B −cr,r+1 C B −cr,r+2 C B −crn C C=B C +t1 · B C +t2 · B C + . . . + tn−r · B C xr+1 C B 0 C 1 0 C C B B B 0 C C C C C C B B B B xr+2 C B 0 C 0 1 C C B B B 0 C C C C C C B B B B .. .. .. C C C B .. C B B B .. C A A A @. A @ @ @ . A . . . xn 0 0 0 1 | | | {z } {z } | {z } {z } {z } =: x =: x0 =: x1 =: x2 =: xn−r 1
0
( allgemeine L¨ osung von (**) in Matrizenform“) ” aufschreibbar. Offenbar ist x0 dabei eine spezielle L¨osung von (**) und t1 ·x1 + . . . + tn−r · xn−r die allgemeine L¨ osung von C · x = o, wobei oT := (0, 0, . . . , 0). Diesen Aufbau einer L¨ osung eines LGS hatten wir uns u ¨ brigens schon in den S¨ atzen 3.2.9–3.2.11 u ¨ berlegt. Beispiel
F¨ ur das LGS x1
− x3 + x4 = 1 x2 + 3x3 − 4x4 = 7
lautet die allgemeine L¨ osung in Matrizenform ⎛ ⎞ ⎛ ⎞ ⎛ ⎛ ⎞ ⎞ x1 1 1 −1 ⎜ x2 ⎟ ⎜ 7 ⎟ ⎜ ⎜ ⎟ ⎟ ⎜ ⎟ = ⎜ ⎟ + t1 · ⎜ −3 ⎟ + t2 · ⎜ 4 ⎟ ⎝ x3 ⎠ ⎝ 0 ⎠ ⎝ 1⎠ ⎝ 0⎠ x4 0 0 1
(t1 , t2 ∈ R)
Definition Zwei LGS A · x = b und A′ · x = b′ mit n Unbekannten u ¨ber dem K¨ orper K heißen ¨ aquivalent (Schreibweise: A · x = b ←→ A′ x = b′ ), wenn sie dieselbe L¨ osungsmenge besitzen. Speziell sind alle l¨ osungslosen LGS mit n Unbekannten untereinander ¨aquivalent. Satz 3.4.1 Folgende Umformungen eines LGS (*) ¨ uberf¨ uhren (*) in ein zu (*) ¨aquivalentes: (1) (2) (3) (4)
Vertauschen zweier Gleichungen; ¨ Andern der Reihenfolge der Summanden in den Gleichungen; Multiplikation einer Gleichung von (*) mit einem Faktor λ ∈ K\{0}; Addition des λ-fachen einer Gleichung von (*) zu einer anderen Gleichung von (*).
Beweis. Erh¨ alt man das LGS (*’) aus dem LGS (*) mittels der Umformungen (1)–(4), so ist offenbar auch (*) aus (*’) durch (1)–(4) konstruierbar. Damit ist jede L¨osung von (*) auch eine von (*’) und umgekehrt.
146
3 Lineare Gleichungssysteme, Determinanten und Matrizen
Satz 3.4.2 Jedes LGS (*) l¨aßt sich durch Anwenden der Umformungen (1)– (4) (siehe Satz 3.4.1) in ein zu (*) ¨aquivalentes der Form (**) u uhren: ¨ berf¨ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 0 0 ... 0 c1,r+1 c1,r+2 ... c1n xi1 d1 ⎜ 0 1 0 ... 0 c2,r+1 c2,r+2 ... c2n ⎟ ⎜ xi2 ⎟ ⎜ d2 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ . . . ... . ⎜ ⎟ ⎜ ⎟ . . ... . ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ 0 0 0 ... 1 cr,r+1 cr,r+2 ... crn ⎟ · ⎜ xir ⎟ = ⎜ dr ⎟ , ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 0 0 ... 0 ⎜ ⎟ ⎜ ⎟ 0 0 ... 0 ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎝ . . . ... . ⎝ ⎠ ⎝ ⎠ . . ... . . . ⎠ 0 0 0 ... 0 0 0 ... 0 xin dm wobei {xi1 , . . . , xin } = {x1 , . . . , xn } ist. Beweis.
Zum Beweis geben wir den sogenannten
Gauß-Algorithmus7“ ” an, mit dem man jedes LGS (*) in ein dazu ¨aquivalentes der Form (**) u uhren kann. Die Grundidee dieses Verfahrens ist sehr alt. Schon chi¨ berf¨ nesische Mathematiker l¨ osten LGS vor 2000 Jahren mit Hilfe des Gauß” Algorithmus“ (siehe [Jus 64]). Wir werden das LGS (*) schrittweise in (**) u uhren. Die dabei auftretenden Zwischenglieder“ bezeichnen wir mit ¨ berf¨ ” (t) : wobei
(t)
A(t) · x(t) = b(t) , (t)
(t)
A(t) = (aij )m,n , (x(t) )T = (x1 , . . . , xn ) (t) (t) ({x1 , . . . , xn } = {x1 , . . . , xn }) und (t) (t) (b(t) )T = (b1 , . . . , bm ), t = 1, 2, . . . . ¨ 1. Schritt: Durch Umordnen der Gleichungen und Andern der Reihenfolge der Summanden in den Gleichungen u uhren wir (*) in das LGS (1): ¨ berf¨ (1) A(1) · x(1) = b(1) mit a11 = 0. (1) (1) 2. Schritt: Wir addieren das −a21 /a11 -fache der ersten Gleichung von (1) (1) (1) zur zweiten Gleichung, dann das −a31 /a11 -fache der ersten Gleichung zur (1) (1) dritten Gleichung von (1), usw. Allgemein wird zur i-ten Zeile das −ai1 /a11 fache der ersten Zeile von (1) addiert, i = 2, . . . , m. Wir erhalten dann das LGS (2): 7
Carl Friedrich Gauß (1777–1855), einer der bedeutendsten Mathematiker aller Zeiten, außerdem Astronom, Geod¨ at und Physiker.
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS (1) (1)
(1) (1)
a11 x1 + a12 x2 (2) (1) a22 x2 (2) (1) a32 x2 ... (2) (1) am2 x2
(1) (1)
+ . . . + a1n xn (2) (1) + . . . + a2n xn (2) (1) + . . . + a3n xn +...+ ... (2) (1) + . . . + amn xn
147
(1)
= b1 (2) = b2 (2) = b3 = ... (2) = bm . (1)
(1)
3. Schritt: Durch Umordnen der Summanden, die x2 , . . . , xn enthalten, ¨ und Andern der Reihenfolge der zweiten bis m-ten Gleichung bilden wir aus (3) (2) das LGS (3) mit a22 = 0. Ist dies nicht m¨ oglich, haben wir nach Division (1) der ersten Gleichung durch a11 schon (**) erhalten. (3)
(3)
4. Schritt: F¨ ur i ∈ {1, 3, 4, . . . , m} addieren wir das −ai2 /a22 -fache der zweiten Gleichung von (3) zur i-ten Gleichung. Ergebnis dieser m − 1 Umformungen ist das LGS (4): (1) (1)
a11 x1 +
(4) (3)
(3) (3) a22 x2 +
a13 x2 (3) (3) a23 x2 (4) (3) a33 x3 ... (4) (3) am3 x3
(4) (3)
+ . . . + a1n xn (3) (3) + . . . + a2n xn (4) (3) + . . . + a3n xn +...+ ... (4) (3) + . . . + amn xn
(4)
= b1 (3) = b2 (4) = b3 = ... (4) = bm .
usw. Nach einer gewissen Anzahl von Schritten bricht unser Verfahren ab und wir erhalten ein zu (*) ¨ aquivalentes LGS der Form (s) (s)
a11 x1 +
(s)
(s)
a1,r+1 xr+1 (s) (s) (s) (s) a22 x2 + a2,r+1 xr+1 ... (s) (s) (s) (s) arr xr + ar,r+1 xr+1
(s) (s)
+ . . . + a1n xn (s) (s) + . . . + a2n xn +...+ ... (s) (s) + . . . + arn xn 0 0
(s)
(s)
= b1 (s) = b2 = ... (s) = br (s) = br+1 .. . (s)
= bm .
Dividiert man nun die i-te Gleichung durch aii , 1 ≤ i ≤ r, so geht unser obiges LGS in eins der Form (**) u ¨ber. Beispiel
Das LGS x1
x2 − x3 = 1 + 2x3 = 2 x2 + x3 = 0
kann man mit Hilfe des Gauß-Algorithmus wie folgt l¨osen:
148
3 Lineare Gleichungssysteme, Determinanten und Matrizen
− x3 = 1 + x3 = 0 + 2x3 = 2
x2 x2 x1
−
x2 x1 x2
x3 = 1 2x3 = −1 + 2x3 = 2
− x1 +
x2 x1
x3 = 1 2x3 = 2 q2x3 = −1 = 1/2 = 3 x3 = −1/2.
Da sich bei den einzelnen Schritten des Gauß-Algorithmus nur die Koeffizienten der Variablen und die Absolutglieder ¨ andern, w¨ urde es v¨ollig gen¨ ugen, nur mit ihnen zu rechnen. Zwecks Schreib¨ okonomie“ werden wir deshalb ein ” LGS durch Umformen seiner Systemmatrix l¨ osen. Genauer: Wir u uhren die Systemmatrix (A, b) von (*) mittels der Umformungen ¨ berf¨ (1) (2) (3) (4)
Vertauschen von Zeilen, Vertauschen von Spalten (ungleich der letzten Spalte!), Multiplikation einer Zeile mit Faktor λ ∈ K\{0}, Addition des λ-fachen einer Zeile zu einer anderen Zeile, λ ∈ K
in eine Matrix der Form ⎛ 1 0 0 ... 0 ⎜ 0 1 0 ... 0 ⎜ ⎜ . . . ... . ⎜ ⎜ 0 0 0 ... 1 ⎜ ⎜ 0 0 0 ... 0 ⎜ ⎝ . . . ... . 0 0 0 ... 0
c1,r+1 c2,r+1 . cr,r+1 0 . 0
c1,r+2 c2,r+2 . cr,r+2 0 . 0
. . . c1n . . . c2n ... . . . . crn ... 0 ... . ... 0
d1 d2 . dr dr+1 . dm
⎞
⎟ ⎟ ⎟ ⎟ ⎟, ⎟ ⎟ ⎟ ⎠
die Systemmatrix eines zu (*) ¨ aquivalenten LGS des Typs (*) ist. Dabei haben wir uns nat¨ urlich die Spaltenvertauschungen zu notieren, da sie eine andere Reihenfolge der Variablen im System (**) bewirken. Wir vereinbaren, die Umformungen i-te Zeile • Vertauschen der i-ten mit der j-ten Zeile
durch
j-te Zeile
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS
?
• Vertauschen der i-ten mit der j-ten Spalte
durch
• Multiplikation der i-ten Zeile mit λ
durch
und • Addition des λ-fachen der i-ten Zeile zur jdurch ten Zeile
149
?
6 6 j-te Spalte i-te Spalte
i-te Zeile
i-te Zeile
·λ
+λ·
j-te Zeile an den Matrizen kenntlich zu machen. Nach erfolgten Spaltenvertauschungen notieren wir uns u ¨ ber der ersten Zeile der Matrix die neue Reihenfolge der Variablen. Unser obiges Beispiel zum Gauß-Algorithmus w¨ urde dann in dieser Kurzschreibweise wie folgt aussehen: x2 x1 x3 0 1 −1 1 1 0 −1 1 1 0 −1 1 – ↔ ↔ 1 0 1 0 ↔ 0 0 2 −1 1 0 2 2
0 1 0
0
1
1
0
−1
1
2
0
2
0 1
0
2 1
1
2 + 12 · – · 21 −1
↔
0
0
2 0 0 1
0
0
1
1 2
0
1
2
2
3
− 21
Aus der letzten Matrix l¨ aßt sich dann (unter Beachtung der vorgenommenen Spaltenvertauschung) die L¨ osung ablesen: x1 = 3,
x2 =
1 , 2
1 x3 = − . 2
Weitere Beispiele (1.) x1 − x3 + x4 + x5 = 1 x1 − x2 + 2x3 =0 + x4 − 2x5 = 1 x2 x3 + x4 + x5 = 0
150
1 0 −1 1 1 1 – 1 −1 2 0 0 0
1 0 −1 1 1
3 Lineare Gleichungssysteme, Determinanten und Matrizen
↔
0 1 0 1 −2 1
0 0 1 1 1 0 1 0 −1 1 1 1
1
·(−1) + −2 0 1 0 1 1 0 −1 3 −1 −1 −1
↔
0 0 1 1 1 0 1 0 0 1 0 1
0 1 −3 1 1 1 + 0 +3· ↔ 0 0 3 0 −3 0 :3 0 – 0 0 1 1 1 0 0 1 0 0 0 −2 1 x1 0 1 0 0 −4 1 ↔ 0 0 1 0 −1 0
1 0 1 −2 1
0 1 0 −1 0
–
–
0 0 1 2 0
x2 x3
↔
− 2x5 = 1 − 4x5 = 1 − x5 = 0 + 2x5 = 0
x4 0 0 0 1 2 0 alt man die allgemeine L¨osung des W¨ ahlt man x5 = t ∈ R beliebig, so erh¨ LGS in Matrizenform: ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ 1 2 x1 ⎜ 4 ⎟ ⎜ x2 ⎟ ⎜ 1 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎜ x3 ⎟ = ⎜ 0 ⎟ + t · ⎜ 1 ⎟ . ⎟ ⎜ ⎟ ⎟ ⎜ ⎜ ⎝ x4 ⎠ ⎝ 0 ⎠ ⎝ −2 ⎠ 0 1 x5
(2.) Die LGS
x1 (1) : x1
+ x3 + 4x4 = 0 x2 − x3 =1 + 2x2 + x4 = 2
und x1 (2) : x1
+ x3 + 4x4 = 6 x2 − x3 =1 + 2x2 + x4 = 0
haben gleiche Koeffizientenmatrizen. Es bietet sich an, (1) und (2) gleichzeitig zu l¨ osen: 1 0 1 4 0 6 1 0 1 4 0 6 0 1 −1 0
1 2 0 1
1 1
–
2 0
↔
0 1 −1 0
0 2 −1 −3
−2· 2 −6 1 1
↔
1 0 1 4
0 6
1 0 0 7
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS
0 14
151
1 1 – ↔ 0 1 0 −3 1 −7 + −3 −8 0 0 1 0 0 0 1 −3 0 −8 Aus der letzten Matrix sind die allgemeinen L¨osungen von (1) und (2) ablesbar. W¨ ahlt man x4 = t ∈ R beliebig, so ist ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ x1 0 −7 ⎜ x2 ⎟ ⎜ 1 ⎟ ⎜ 3 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ ⎝ x3 ⎠ = ⎝ 0 ⎠ + t · ⎝ 3 ⎠ x4 0 1 0 1 −1 0
eine allgemeine L¨ osung von (1) und ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 14 −7 x1 ⎜ 3 ⎟ ⎜ x2 ⎟ ⎜ −7 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎝ x3 ⎠ = ⎝ −8 ⎠ + t · ⎝ 3 ⎠ x4 0 1 eine allgemeine L¨ osung von (2).
Die aus diesem Beispiel ablesbare Methode zum gleichzeitigen L¨osen mehrerer LGS mit gleicher Koeffizientenmatrix werden wir nachfolgend bei der Berechnung inverser Matrizen heranziehen. Zun¨achst jedoch noch einige Bemerkungen zum Gauß-Algorithmus: (1.) Zum Berechnen der L¨ osungen eines LGS (*) h¨atte es v¨ollig gen¨ ugt, die Systemmatrix (A,b) mittels der Umformungen (1)–(4) aus Satz 3.4.1 in eine Matrix von Trapezform zu u uhren, da man aus einem LGS der ¨ berf¨ Form a11 x1 + a12 x2 + a13 x3 + . . . + a1r xr + a1,r+1 xr+1 + . . . + a1n xn = b1 a22 x2 + a23 x3 + . . . + a2r xr + a2,r+1 xr+1 + . . . + a2n xn = b2 a33 x3 + . . . + a3r xr + a3,r+1 xr+1 + . . . + a3n xn = b3 .. . arr xr + ar,r+1 xr+1 + . . . + arn xn = br mit a11 · . . . · arr = 0 durch Wahl von xr+1 = t1 , xr+2 = t2 ,. . . ,xn = tn−r aus der letzten Gleichung xr berechnen kann, dann durch Einsetzen der berechneten Werte f¨ ur xr , . . . , xn in die vorletzte Gleichung xr−1 ermitteln kann, usw. (2.) Der Gauß-Algorithmus liefert i.allg. nicht eine eindeutig bestimmte Systemmatrix eines LGS der Form (**), womit bei unterschiedlicher Abfolge der Einzelschritte sich auch unterschiedliche allgemeine L¨osungen ergeben k¨ onnen. Bei richtiger Rechnung sind jedoch die durch die allgemeinen L¨ osungen bestimmten L¨ osungsmengen gleich.
152
3 Lineare Gleichungssysteme, Determinanten und Matrizen
(3.) Bei der Durchf¨ uhrung des Gauß-Algorithmus hat man mehrmals gewisse Koeffizienten = 0 auszuw¨ ahlen, die sogenannten Pivotelemente. Die Wahl des Pivotelements in einem gewissen Schritt des Gauß-Algorithmus ist vom theoretischen Standpunkt aus gesehen gleichg¨ ultig, vom praktischen Standpunkt aus aber sehr wichtig, weil eine unzweckm¨aßige Wahl des Pivotelements durch Rundungsfehler zu großen Fehlern beim L¨osen des LGS f¨ uhren kann. Beispiele dazu findet man im Teil III, wo auch N¨ aherungsverfahren zum L¨ osen von LGS behandelt werden. Wie schon angek¨ undigt, wollen wir uns anschließend u ¨berlegen, wie man mit Hilfe des Gauß-Algorithmus (unter Umgehung der Formel f¨ ur die inversen Matrizen) aus dem Beweis von Satz 3.2.4 zu einer (n, n)-Matrix A ihre inverse 0. Im Beweis von Satz 3.2.4 hatten Matrix A−1 berechnen kann, falls |A| = wir gezeigt, daß die j-te Spalte von A−1 die eindeutig bestimmte L¨osung von , 0, . . . , 0) ist, j = 1, 2, . . . , n. 1 A · xj = ej mit eTj = (0, . . . , 0,
j-te Stelle Zur Berechnung von A−1 hat man also n LGS mit gleicher Koeffizientenmatrix zu l¨ osen. Dies kann gleichzeitig geschehen, indem man die Matrix (A, En ) durch den Gauß-Algorithmus in eine der Form (En , B) u uhrt. Also gilt ¨ berf¨ der
Satz 3.4.3 Sei A ∈ Krn×n . Erh¨alt man aus der Matrix (A, En ) durch Anwenden der Umformungen (1) (2) (3) (4)
Vertauschen von Zeilen, Vertauschen der ersten n Spalten, Multiplikation einer Zeile mit Faktor λ ∈ K\{0}, Addieren von λ-fachen einer Zeile zu einer anderen Zeile, λ ∈ K,
eine Matrix der Form (En , B), so ist, falls nur die Umformungen der Art (1), (3) und (4) vorgenommen wurden, A−1 = B und, falls auch (2) verwendet wurde, A−1 aus B durch Vertauschen entsprechender Zeilen zu erhalten. Ge¨ nauer: Wurde die r-te Spalte bei der Uberf¨ uhrung von (A, En ) in (En , B) auf den Platz der s-ten Spalte gesetzt (wurde also in den Gleichungssystemen eine Umordnung der Summanden vorgenommen), so ist die s-te Zeile von B die r-te Zeile von A−1 . Beispiele (1.) Die zu
⎛
⎞ 1 0 1 A := ⎝ 2 4 0 ⎠ 1 1 0
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS
153
inverse Matrix erh¨ alt man wie folgt: ? ? 1 0 1 1 0 0 1 0 1 1 0 0 (A, E3 ) = ↔ :4 2 4 0 0 1 0 0 4 2 0 1 0 −1· 4 1 1 0 0 0 1 0 1 1 0 0 1 1 0 1 1 0 0 ↔
↔
0 −2· – 1 1 − 0 0 0 1 2 4 ·2 1 0 0 1 21 -2 1 2
0
1 4
0 1 0 0
1 2
0 1
-1
= (E3 , B)
2 0 0 1 0 Da wir zu Beginn der Rechnung die erste mit der dritten Spalte vertauscht hatten, erhalten wir aus B durch Vertauschen der ersten mit der dritten Zeile A−1 : ⎛ ⎞ 0 −1/2 2 A−1 = ⎝ 0 1/2 −1 ⎠ . 1 1/2 −2 − 12
(2.) Sei
⎛
1 ⎜2 A := ⎜ ⎝3 7
0 1 0 0
1 0 0 0
⎞ 1 0⎟ ⎟. 3⎠ 4
alt man durch Umordnen der Spalten (3 → 1, 2 → 2, 4 → Aus (A, E4 ) erh¨ 3, 1 → 4): 1 0 1 1 1 0 0 0 0 1 0 2 0 1 0 0
− 31 ·
:3 −4· 0 0 4 7 0 0 0 1 1 0 0 0 1 0 − 31 0 0 0 3 3 0 0 1 0
↔
0 1 0 2 0 1 0 0
↔
0 0 1 1 0 0
1 3
4 0 0 0 3 0 0 − 3
0 − 32 · − 13 · :3 1
154
1 0 0 0 1 0 − 31 0
3 Lineare Gleichungssysteme, Determinanten und Matrizen
0 1 0 0 0 1
8 9
− 32
0 0 1 0 0 0
7 9
− 31
4 1 0 0 0 1 0 0 − 9 3 Mittels Zeilenumordnung (1 → hieraus: ⎛ 0 ⎜0 −1 A =⎜ ⎝1 0
= (E4 , B)
3, 2 → 2, 3 → 4, 4 → 1) ergibt sich ⎞ 0 −4/9 1/3 1 8/9 −2/3 ⎟ ⎟. 0 −1/3 0⎠ 0 7/9 −1/3
Wir kommen nun zu einem L¨ osbarkeitskriterium f¨ ur LGS. Satz 3.4.4 Seien A ∈ K m×n , b ∈ K m×1 und x = (x1 , . . . , xn )T . Dann gilt (1) A · x = b besitzt eine L¨osung x ⇐⇒ rg A = rg (A, b); (2) A · x = b besitzt keine L¨osung x ⇐⇒ rg A < rg (A, b); (3) Es sei rg A = rg (A, b) =: r, L die Menge der L¨osungen von A·x = b und L0 die Menge der L¨osungen von A·x = o (o := (0, 0, . . . , 0)T ). Dann existieren ein x0 ∈ L und gewisse x1 , . . . , xn−r aus L0 mit den Eigenschaften rg(x1 , . . . , xn−r ) = n − r (d.h., die x1 , . . . , xn−r sind linear unabh¨angig (siehe Satz 4.3.1, (a)) und L = {x | ∃t1 , . . . , tn−r ∈ K : x = x0 + t1 · x1 + . . . + tn−r · xn−r } = x0 + L0 . Beweis. Da man jedes LGS (*) mittels des Gauß-Algorithmus in ein zu (*) ¨ aquivalentes der Form (**) u uhren kann, wobei sich nach Satz 3.3.1 ¨berf¨ die R¨ ange der Koeffizienten- und der Systemmatrix nicht ¨andern, folgen (1) ¨ und (2) aus unseren Uberlegungen zur L¨ osbarkeit von (**) zu Beginn dieses Kapitels. (3) ergibt sich aus dem Gauß-Algorithmus und den Eigenschaften der LGS des Typs (**). Leicht zu begr¨ undende Folgerungen aus Satz 3.4.4 sind zusammengefaßt im
3.4 L¨ osbarkeitskriterien und L¨ osungsverfahren f¨ ur LGS
155
Satz 3.4.5 (1) Das LGS (*) hat genau eine L¨osung, wenn rg A = n (n ist dabei die Anzahl der Unbekannten). (2) Das LGS (*) mit b = o besitzt nur die triviale L¨osung o, wenn rg A = n. (3) Ist K ein endlicher K¨orper, so hat das LGS (*) mit rg A = rg (A, b) =: r genau |K|n−r verschiedene L¨osungen. (4) Falls rg A = rg (A, b) < n und K ein unendlicher K¨orper ist, so besitzt (*) unendlich viele L¨osungen. Unter Verwendung der Bezeichnungen aus dem nachfolgenden Kapitel 4 ist eine weitere Folgerung aus 3.4.4: Satz 3.4.6 Seien A ∈ K m×n und x ∈ K n×1 . Dann ist die Menge aller L¨osungen x des homogenen LGS A · x = o ein Untervektorraum des K-Vektorraums K n×1 der Dimension n − rg A.
Die Zusammenh¨ ange zwischen affinen R¨ aumen und LGS entnehme man Satz 5.3.2. Abschließend noch zwei Beispiele zu Anwendungen von Satz 3.4.4, (1), (2): (1.) Hat das LGS x1 2x1 x1 2x1
+ − − +
x2 − x3 + x4 x2 + x4 x2 + x3 x2 − 2x3 + 2x4
=5 =3 =1 =8
L¨ osungen? Mittels rang¨aquivalenter Umformungen bringen wir die Systemmatrix des LGS auf Trapezform: 1 −1 1 1 5 1 −1 1 1 5 – 1 0 −1 2 3 0 1 −2 1 −2 Spaltenvert. – −2· rg (A, b) = rg = rg 0 1 −1 1 1 0 1 −1 1 1 2 −2 1 2 8
0 0 −1 0 −2 ? ? 1 −1 1 1 5
1 −1 1 1 5 = rg
0 1 −2 1 −2 0 0 1 0 3
= rg
0 1 −2 1 −2 0 0 1 0 3
=4
+ 0 0 −1 0 −2 0 0 0 0 1 Aus unseren Rechnungen ist außerdem rg A = 3 ablesbar. Folglich hat unser LGS keine L¨ osungen.
156
3 Lineare Gleichungssysteme, Determinanten und Matrizen
(2.) Wie sind a, b ∈ R zu w¨ ahlen, damit das LGS x + y − z = −1 −x + z = 0 a·x + y + z = b genau eine L¨ osung, unendlich viele L¨ osungen bzw. keine L¨osung besitzt? Zur Beantwortung dieser Frage bringen wir zun¨achst die Systemmatrix des LGS auf Trapezform: −1 −1 1 1 −1 −1 1 1 −a· +
−1 0
a
1
1
1
0 b
1
1
−1
0
1
0
−1
←→
0
1
0
−1
0 1 − a 1 + a b + a
−(1 − a)·
−1
0 1 + a b + 1 0 Hieraus folgt
rg A = und rg (A, b) =
2, 3
2, 3,
falls a = −1, falls a = −1
falls a = −1 und b = −1, sonst.
Damit hat das LGS • genau eine L¨ osung f¨ ur a = −1, • unendlich viele L¨ osungen f¨ ur a = −1 und b = −1 und • keine L¨ osung, falls a = −1 und b = −1.
←→
4 Vektorr¨ aume u orper K ¨ ber einem K¨
In diesem Kapitel wollen wir uns mit einer der zentralen Strukturen der linearen Algebra vertraut machen, mit der Vektorraumstruktur, f¨ ur die es eine Vielzahl von interessanten Anwendungen gibt, auf die wir dann in den nachfolgenden Abschnitten eingehen werden. Dabei wird sich herausstellen, daß der Vektorraumbegriff ein einfacher und vereinheitlichender Grundbegriff der Algebra, Analysis, Geometrie und mathematischen Physik ist.
4.1 Die Definition eines Vektorraums u ¨ber K, Beispiele Sei K nachfolgend stets ein K¨ orper, f¨ ur den wir die gleichen Vereinbarungen treffen wollen wie im Kapitel 3. Definition Eine Menge V heißt Vektorraum (abgek¨ urzt: VR) u ¨ ber dem K¨ orper K = (K; +, ·) und ihre Elemente Vektoren, wenn auf V eine innere Verkn¨ upfung + : V × V → V
( Addition“) ”
und eine ¨ außere Verkn¨ upfung · : K × V → V
( Multiplikation mit Skalar“) ”
definiert sind, so daß folgendes gilt: (V1) (V ; +) ist eine abelsche Gruppe. (V2) F¨ ur beliebige a, b ∈ V und beliebige a, b ∈ K gilt (a) 1 · a = a (b) a · (b · a) = (a · b) · a (c) (a + b) · a = a · a + b · a (d) a · (a + b) = a · a + a · b. Bezeichnungen Anstelle von V ist Vektorraum u ¨ ber K“ sagen wir auch ”
158
4 Vektorr¨ aume u orper K ¨ber einem K¨
V ist K-Vektorraum“ und schreiben ” Bezeichnungen f¨ ur Vektoren sind in der Regel: a, b, c, d, e, . . . , x, y, o, . . .
KV
.
.
Das neutrale Element von (V ; +) sei o. Das zu x ∈ V inverse Element bez. + bezeichnen wir mit −x. Außerdem sei x − y := x + (−y) f¨ ur beliebige x, y ∈ V . Sind x1 , . . . , xr ∈ K und x1 , . . . , xr ∈ V , so nennen wir x1 · x1 + x2 · x2 + . . . + xr · xr eine Linearkombination (abgek¨ urzt: LK) der Vektoren x1 , . . . , xr . Gilt b = x1 · x1 + . . . + xr · xr , so sagt man b ist eine Linearkombination der Vektoren x1 , . . . , xr“ ” bzw. b ist linear abh¨ angig von x1 , . . . , xr“. ” Beispiele f¨ ur Vektorr¨ aume: (1.) Jeder K¨ orper K ist selbst Vektorraum u ¨ ber K. (2.) Nach Satz 3.2.1 und Satz 3.2.8, (1)–(4) bildet die Menge K m×n mit der Matrizenaddition und der f¨ ur Matrizen definierten Multiplikation mit Skalar einen VR u ¨ ber K. Wir werden sp¨ ater sehen, daß insbesondere der VR K n×1 repr¨asentativ“ ” f¨ ur sogenannte n-dimensionale VRe u ¨ ber K ist. (3.) Sei Pn die Menge aller Abbildungen f von R in R, die durch Formeln der Form f (x) = an · xn + an−1 · xn−1 + . . . + a1 · x + a0 (an , an−1 , . . . , a0 ∈ R) beschrieben werden k¨onnen. Pn ist also die Menge aller sogenannten Polynome, deren Grad h¨ochstens n ist (siehe dazu auch Abschnitt 8.2). Auf der Menge Pn lassen sich eine Addition und eine Multiplikation mit Skalar ur f (x) := n (ausi R) wie folgt erkl¨aren: F¨ n i b · x seien a · x und g(x) := i=0 i i=0 i (f + g)(x) :=
n (ai + bi ) · xi i=0
und (c · f )(x) :=
n i=0
(c · ai ) · xi ,
wobei c ∈ R. Man pr¨ uft nun leicht nach, daß Pn zusammen mit den eben definierten Operationen einen VR u ¨ ber R bildet. Indem man die Koeffizienten der Polynome nur aus Q oder aus C w¨ahlt, erh¨ alt man analog zu oben auch VRe u ¨ber Q oder C. Der VR Pn l¨aßt sich aber auch noch auf eine andere Weise verallgemeinern. Bekanntlich
4.1 Die Definition eines Vektorraums u ¨ ber K, Beispiele
159
ist die Summe zweier stetiger Funktionen1 u ¨ ber einem gewissen Intervall [a, b] und auch das λ-fache einer stetigen Funktion wieder eine stetige Funktion, λ ∈ R. Damit ist die Menge C[a, b] aller stetigen Funktionen, die den Definitionsbereich [a, b] ⊆ R haben, zusammen mit den auf nat¨ urliche Weise erkl¨arten Addition und Multiplikation mit Skalar ein Vektorraum u ¨ ber R. Anstelle des Intervalls [a, b] h¨ atten wir auch die im Abschnitt 1.2 definierten Intervalle [a, b), (a, b] oder (a, b) w¨ ahlen k¨ onnen. Nun jedoch noch eine kurze Wiederholung der aus der Schule her bekannten Vektorr¨ aume. (4.) Bezeichne R2 die 2-dimensionale euklidische Ebene ( Anschauungsebe” ne“) und R3 den 3-dimensionalen euklidischen Raum ( Anschauungs” raum“). Wir meinen damit eine Ebene bzw. Raum, in dem man wie Euklid, also so wie in der Schule gelernt, Geometrie betreiben kann. Die Elemente von R2 ∪R3 nennen wir u ¨blicherweise Punkte. In vielen F¨allen macht es keinen Unterschied, ob man Geometrie in der Ebene oder im ¨ Raum betreibt bzw. vorgenommene Uberlegungen laufen analog ab. Tritt eine solche Situation auf, schreiben wir anstelle von R2 bzw. R3 nur R. Eine Verschiebung (auch Vektor genannt) von R ist entweder die identische Abbildung idR (nachfolgend auch mit o bezeichnet) oder eine sogenannte Parallelverschiebung von R auf R, d.h., eine bijektive Abbildung a von R auf R, f¨ ur die f¨ ur beliebige Punkte P, Q ∈ R gilt: Die Punkte P, a(P ), a(Q) und Q sind die Eckpunkte eines Parallelogramms:
1
a(P q ) B B Bqa(Q) q P B B q B Q Die identische Abbildung idR nennt man auch Nullvektor. Eine Parallelverschiebung ist offenbar vollst¨andig bestimmt, wenn man zu irgendeinem Punkt P den Bildpunkt a(P ) kennt. Geometrisch w¨ urde also eine Zeichnung der Art q * a(P ) P q
Den Begriff stetige Funktion“ setzen wir hier als bekannt voraus. ”
160
4 Vektorr¨ aume u orper K ¨ber einem K¨
(Repr¨ asentant von a genannt) zur Charakterisierung von a gen¨ ugen. Die L¨ ange eines Repr¨ asentanten von a nennt man Betrag von a und bezeichnet sie mit |a|. Als L¨ ange (Betrag) des Nullvektors sei 0 festgelegt. Identifiziert man eine Parallelverschiebung mit ihrem Repr¨asentanten (stellt man also Parallelverschiebungen durch Pfeile dar), so hat man nat¨ urlich Pfeile als gleich anzusehen, wenn sie gleichen Betrag, gleiche Richtung und gleichen Richtungssinn (Orientierung) besitzen. Haben die Repr¨ asentanten zweier Vektoren a, b die gleiche Richtung (d.h., liegen die Repr¨ asentanten von a und b auf parallelen Geraden), so schreiben wir a"b. Liegt neben gleicher Richtung auch gleiche Orientierung vor, so verwenden wir die Schreibweise a ↑↑ b. Ist die Orientierung entgegengesetzt, so geben wir das durch a ↑↓ b an. − → Die Menge aller Verschiebungen der Ebene R2 sei mit V2 und die Menge − → aller Verschiebungen des Raumes R3 mit V3 bezeichnet. Außerdem sei − → − → − → − → ¨ V ∈ {V2 , V3 }. V ist ein Vektorraum u ¨ ber dem K¨orper R (Beweis: UA), wenn man f¨ ur die Verschiebungen eine Addition + und eine Multiplikation · mit Skalar wie folgt festlegt: • + sei unsere wohlbekannte Hintereinanderausf¨ uhrung 2 von Abbildungen, die sich unter Verwendung von Repr¨asentanten auch kurz durch *PP b a PP PP q P a+b beschreiben l¨ aßt. • Die Multiplikation einer Verschiebung a mit einem Skalar λ ∈ R ist durch folgende Forderungen eindeutig festgelegt: ⎧ ⎨ = o, falls λ = 0, |λ · a| := |λ| · |a| und λ · a ↑↑ a, falls λ > 0, ⎩ ↑↓ a, falls λ < 0. (Auf die Repr¨ asentanten bezogen, ist die Multiplikation mit Skalar nichts anderes als eine Streckung oder Stauchung des Repr¨asentanten mit eventueller Umorientierung.)
Der n¨ achste Satz gibt einige einfache Rechenregeln an, die sich aus den Vektorraumaxiomen ergeben und die wir nachfolgend oft benutzen werden. Satz 4.1.1 Sei λ ∈ K: (a) (b) (c) (d)
KV
Vektorraum. Dann gilt f¨ ur beliebige a ∈ V und beliebige
0 · a = o, λ · o = o, λ · a = o ⇐⇒ λ = 0 ∨ a = o, −a = (−1) · a.
4.2 Untervektorr¨ aume
161
Beweis. Anhand der Vektorraumaxiome und der Eigenschaften von Grup¨ pen pr¨ uft man leicht die Richtigkeit folgender Aquivalenzen und Gleichungen nach: 0 · a = (0 + 0) · a = 0 · a + 0 · a =⇒ 0 · a = o, λ · o = λ · (o + o) = λ · o + λ · o =⇒ λ · o = o. Also gilt (a) und (b), womit auch ⇐=“ von (c) richtig ist. Hat man λ · a = o ” und λ = 0, so existiert λ−1 und es gilt a = 1 · a = (λ−1 · λ) · a = λ−1 · (λ · a) = −1 λ · o = o, womit =⇒“ von (c) bewiesen wurde. ” (d) folgt aus a + (−1) · a = 1 · a + (−1) · a = (1 + (−1)) · a = 0 · a = o.
4.2 Untervektorr¨ aume Definition Es sei V ein K-Vektorraum und U eine Teilmenge von V . Dann heißt U Untervektorraum von V , falls U zusammen mit den Verkn¨ upfungen von V , die auf die Elemente von U beschr¨ ankt sind, einen K-Vektorraum bildet. Anstelle von Untervektorraum schreiben wir oft auch kurz UVR. Vor Beispielen zun¨ achst der Satz 4.2.1 Es sei U ⊆ K V und U = ∅. Dann gilt: U ist UVR von V ⇐⇒ ( ∀ a, b ∈ K ∀ a, b ∈ U : a · a + b · b ∈ U ) ⇐⇒ ( ∀ a ∈ K ∀ a, b ∈ U : a · a ∈ U ∧ a + b ∈ U ). Beweis.
¨ Den Beweis f¨ uhrt man leicht mit Hilfe von Satz 2.2.7 (UA).
Beispiele f¨ ur UVRe: (1.) Jeder VR
KV
besitzt stets zwei sogenannte triviale UVRe: {o}, V .
(2.) Die Untervektorr¨ aume des VRs K 2×1 mit K = Z3 sind $0% $ % $ % , U1 = 00 , 01 , 02 , U2 = 00 , 10 , 20 , U0 = 0 $0 1 2% $ % U3 = , U4 = 00 , 12 , 21 und K 2×1 . 0 , 1 , 2
(3.) Ist V = K n×1 VR u ¨ber K und A ∈ K m×n , so ist die Menge aller L¨osun¨ A.4.1). gen von A · x = o ein UVR von V (Beweis: UA (4.) Q ist VR u ¨ ber Q. Die Menge Z ist zwar eine Untergruppe von (Q; +), jedoch kein UVR von Q, da z.B. (1/2) · 1 ∈ / Z.
162
4 Vektorr¨ aume u orper K ¨ber einem K¨
(5.) Die L¨ osungen eines inhomogenen LGS (*) bilden keinen UVR von K n×1 ¨ A.4.1). (Beweis: UA Als n¨ achstes wollen wir uns u ¨ berlegen, wie man aus Teilmengen eines Vektorraums oder aus gegebenen Untervektorr¨ aumen eines Vektorraums weitere Untervektorr¨ aume bilden kann. Dazu die Definition Sei M ⊆ K V . Die Menge {o}, falls M = ∅, [M ] := {x | ∃t ∈ N ∃a1 , . . . , at ∈ K ∃a1 , . . . , at ∈ M : x = a1 · a1 + . . . + at · at }, falls M = ∅, heißt Abschluß oder lineare H¨ ulle von M . Beispiel F¨ ur die Menge ⎧⎛ ⎞ ⎛ ⎞ ⎫ 1 ⎬ ⎨ 0 M = ⎝ 1 ⎠,⎝ 0 ⎠ (⊆R R3×1 ) ⎩ ⎭ 1 1 gilt
⎧ ⎨
⎫ ⎞ ⎛ ⎞ 0 1 ⎬ [M ] = a · ⎝ 1 ⎠ + b · ⎝ 0 ⎠ a, b ∈ R . ⎩ ⎭ 1 1 ⎛
Elementare Eigenschaften linearer H¨ ullen, die man leicht nachpr¨ uft, faßt der nachfolgende Satz zusammen. Satz 4.2.2 (mit Definition) Seien M, M ′ ⊆ K V . Dann gilt: (a) (b) (c) (d) (e) (f )
M ⊆ [M ], M ⊆ M ′ =⇒ [M ] ⊆ [M ′ ], [M ] = [[M ]]. 2 [M ] ist UVR von K V ( der von M aufgespannte UVR“). ” M ist UVR von K V ⇐⇒ [M ] = M . [M ] = U∈M U , wobei M die Menge aller UVRe von K V bezeichnet, die M enthalten. Mit anderen Worten: [M ] ist der kleinste UVR von K V , der M enth¨alt.
Ebenfalls leicht beweisbar ist der Satz 4.2.3 Es sei V ein K-Vektorraum und Ui (i ∈ I) Untervektorr¨aume von V . Dann ist auch i∈I Ui ein UVR von V .
Der Durchschnitt von UVRen ist also wieder ein UVR. Die Vereinigung von UVRen ist hingegen Beispiel zeigt: W¨ahlt man $ i.allg. kein% UVR, wie folgendes $ % V = K 2×1 , U1 = x0 x ∈ K und U2 = x0 x ∈ K , so sind zwar U1 , U2 Untervektorr¨ aume von V , jedoch ist U1 ∪ U2 kein UVR, da z.B. 11 ∈ / U1 ∪ U2 , 0 1 obwohl 1 ∈ U1 und 0 ∈ U2 gilt. 2
(a)–(c) besagen, daß [..] ein sogenannter H¨ ullenoperator ist (siehe Band 2).
4.2 Untervektorr¨ aume
163
Man erh¨ alt jedoch einen UVR, wenn man [U1 ∪ U2 ] bildet. Es ist u ¨blich, einen auf diese Weise gebildeten UVR mit U1 +U2 zu bezeichnen. Was man allgemein unter Summen“ von UVRen zu verstehen hat, wird erl¨autert in den ” Definitionen F¨ ur UVRe U1 , U2 , . . . , Un (n ∈ N\{1}) sei U1 + U2 + . . . + Un := [U1 ∪ U2 ∪ . . . ∪ Un ] (= {u1 + u2 + . . . + un | ∀i ∈ {1, . . . , n} : ui ∈ Ui }) die Summe der Untervektorr¨ aume U1 , U2 , . . . , Un . Anstelle von U1 + . . . + Un verwendet man auch die Schreibweise n
Ui .
i=1
Außerdem sagt man U1 + . . . + Un ist direkte Summe der UVRe U1 , . . . , Un :⇐⇒ n ∀i ∈ {1, . . . , n} : Ui ∩ ( j=1,j =i Uj ) = {o}.
Falls die Summe U1 + . . . + Un direkt ist, gibt man diese Eigenschaft auch ˙ . . . +U ˙ n ) an. durch die Schreibweise U1 ⊕ U2 ⊕ . . . ⊕ Un (oder U1 + Beispiel
Sei V = R3×1 VR u ¨ ber R. Offenbar ist ⎫⎞ ⎡⎧⎛ ⎞⎫⎤ ⎡⎧⎛ ⎞⎫⎤ ⎛ ⎧ ⎛ ⎞ ⎨ 1 ⎬ ⎬ ⎨ 0 ⎬ ⎨ x ⎣ ⎝ 0 ⎠ ⎦ + ⎣ ⎝ 1 ⎠ ⎦ ⎝= ⎝ y ⎠ x, y ∈ R ⎠ ⎩ ⎭ ⎭ ⎩ ⎭ ⎩ 0 0 0
eine direkte Summe. W¨ ahlt man hingegen ⎡⎧⎛ ⎞⎫⎤ ⎡⎧⎛ ⎞ ⎛ ⎞⎫⎤ 2 ⎬ 0 ⎬ ⎨ ⎨ 1 U1 = ⎣ ⎝ 0 ⎠ , ⎝ 1 ⎠ ⎦ und U2 = ⎣ ⎝ −1 ⎠ ⎦ , ⎩ ⎭ ⎩ ⎭ 0 1 2
so ist U1 + U2 keine direkte Summe, da U2 ⊆ U1 (wegen ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 1 0 ⎝ −1 ⎠ = 2 · ⎝ 0 ⎠ − ⎝ 1 ⎠ ). 0 1 2
Satz 4.2.4 (mit Definition) L¨aßt sich ein K-Vektorraum V als direkte Summe von gewissen UVRen U1 , U2 , . . . , Un darstellen: V = U1 ⊕ U2 ⊕ . . . ⊕ Un , so existieren f¨ ur jeden Vektor x ∈ V eindeutig bestimmte Vektoren xi ∈ Ui , 1 ≤ i ≤ n (die sogenannten Projektionen von x in die UVRe U1 , . . . , Un ), mit x = x1 + x2 + . . . + xn .
164
4 Vektorr¨ aume u orper K ¨ber einem K¨
Beweis.
Angenommen, es gilt f¨ ur gewisses x ∈ V : x = x1 + x2 + . . . + xn , x = x′1 + x′2 + . . . + x′n , xi = x′i f¨ ur ein gewisses i ∈ {1, . . . , n} und ∀ j ∈ {1, . . . , n} : {xj , x′j } ⊆ Uj .
Hieraus folgt o = (x1 − x′1 ) + . . . + (xn − x′n ) und xi − x′i = −
n
(xj − x′j ) = o, j=1,j =i ∈Uj
womit U1 + . . . + Un keine direkte Summe sein kann, im Widerspruch zur Voraussetzung. Das folgende Lemma gibt eine andere M¨ oglichkeit an, direkte Summen von Untervektorr¨ aumen zu definieren. Lemma 4.2.5 Seien U1 , U2 , ..., Un UVRe eines K-Vektorraums V . Dann ist U := U1 + U2 + ... + Un genau dann eine direkte Summe, wenn die folgende Bedingung erf¨ ullt ist: ∀b1 ∈ U1 ∀b2 ∈ U2 ... ∀bn ∈ Un : (4.1) b1 + b2 + ... + bn = o =⇒ b1 = b2 = ... = bn = o. Beweis. =⇒“: Sei U eine direkte Summe und seien bi ∈ Ui (i = 1, ..., n) mit ” b1 + b2 + ... + bn = o beliebig gew¨ ahlt. Da jeder UVR Ui den Nullvektor enth¨ alt ur alle i = 1, 2, .., n aus Satz und f¨ ur den Nullvektor o + ... + o = o gilt, folgt bi = o f¨ 4.2.4. P ⇐=“: Sei (4.1) erf¨ ullt und bi ∈ Ui ∩( n ur i ∈ {1, ..., n} beliebig gew¨ ahlt, j=1, j =i Ui ) f¨ ” d.h., es existieren gewisse bj ∈ Uj (j = 1, ..., i − 1, i + 1, ..., n) mit bi = b1 + ... + bi−1 + bi+1 + ... + bn . Folglich gilt (−b1 ) +... + (−bi−1 ) + bi + (−bi+1 ) +... + (−bn ) = o, | {z } | {z } |{z} | {z } | {z } ∈U1
∈Ui−1
∈Ui
∈Ui+1
∈Un
woraus sich wegen (4.1) insbesondere bi = o ergibt.
4.3 Lineare Abh¨ angigkeit und lineare Unabh¨ angigkeit Definitionen ßen/heißt • •
Seien V ein K-Vektorraum und a1 , . . . , at ∈ V . Dann hei-
angig ( l.u.“) :⇐⇒ a1 , . . . , at linear unabh¨ ” x1 · a1 + x2 · a2 + . . . + xt · at = o =⇒ x1 = x2 = . . . = xt = 0. {a1 , . . . , at } linear unabh¨ angig ( l.u.“) :⇐⇒ ” x1 · a1 + x2 · a2 + . . . + xt · at = o =⇒ x1 = x2 = . . . = xt = 0.
4.3 Lineare Abh¨ angigkeit und lineare Unabh¨ angigkeit
165
•
M (⊆ V ) linear unabh¨ angig ( l.u.“) :⇐⇒ Jede endliche Teilmenge von ” M ist linear unabh¨ angig. • a1 , . . . , at (bzw. {a1 , . . . , at } bzw. M (⊆ V )) heißen linear abh¨ angig ( l.a.“), wenn sie nicht linear unabh¨ angig sind. ” Beispiele
(1.) Ein System von Vektoren der Form a1 , . . . , ai , . . . , ai , . . . , at oder angig. Dagegen ist die Menge a1 , . . . , o, . . . , at ist stets linear abh¨ {a1 , a1 , a2 } linear unabh¨ angig, wenn a1 , a2 linear unabh¨angig sind, da {a1 , a1 , a2 } = {a1 , a2 }. (2.) F¨ ur den VR R3×1 u ¨ ber R wollen wir feststellen, ob die Vektoren ⎛ ⎞ ⎛ ⎛ ⎞ ⎞ 1 2 4 a1 = ⎝ 0 ⎠ , a2 = ⎝ 3 ⎠ , a3 = ⎝ 9 ⎠ 1 −1 −5 linear unabh¨ angig sind. Dazu betrachten wir die Gleichung ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 4 x1 · ⎝ 0 ⎠ + x2 · ⎝ 3 ⎠ + x3 · ⎝ 9 ⎠ = o, 1 −1 −5 die gleichwertig ist mit ⎛
bzw. mit dem LGS
⎞ ⎞ ⎛ 1 2 4 x1 ⎝ 0 3 9 ⎠ · ⎝ x2 ⎠ = o 1 −1 −5 x3 x1 + 2x2 + 4x3 = 0 3x2 + 9x3 = 0 x1 − x2 − 5x3 = 0 .
Man rechnet nun leicht nach, daß der Rang der Koeffizientenmatrix dieses LGS gleich 2 ist, womit dieses LGS nichttriviale L¨osungen x1 , x2 , x3 besitzt und folglich a1 , a2 , a3 linear abh¨ angig sind. (3.) Es sei V = P3 und K = R. Um zu kl¨ aren, ob f1 (x) = x3 + x − 1, f2 (x) = x3 + x2 , f3 (x) = 2x + 1 linear unabh¨ angig oder linear abh¨ angig sind, ermitteln wir die Anzahl der m¨ oglichen L¨ osungen a1 , a2 , a3 der Gleichung a1 · f1 (x) + a2 · f2 (x) + a3 · f3 (x) = 0. Durch Umordnen der Summanden erh¨ alt man aus dieser Gleichung die Bedingung
166
4 Vektorr¨ aume u orper K ¨ber einem K¨
(a1 + a2 ) · x3 + a2 · x2 + (a1 + 2a3 ) · x + (−a1 + a3 ) = 0, die f¨ ur beliebige x ∈ R nur genau dann erf¨ ullt ist, wenn a1 + a2 =0 a2 =0 + 2a3 = 0 a1 −a1 + a3 = 0 gilt. Offenbar hat dieses LGS nur die triviale L¨osung, womit f1 , f2 , f3 linear unabh¨angig sind. Das zweite Beispiel von oben l¨ aßt sich verallgemeinern zum Satz 4.3.1 Es sei
KV
= K n×1 und a1 , . . . , at ∈ K n×1 . Dann gilt:
(a) a1 , . . . , at sind linear unabh¨angig ⇐⇒ rg(a1 , . . . , at ) = t. (b) Man findet in der Menge {a1 , . . . , at } genau dann maximal r linear unabh¨angige Vektoren, wenn rg(a1 , . . . , at ) = r ist. Beweis. (a): Die Matrixgleichung x1 · a1 + . . . + xt · at = o l¨aßt sich auch in der Form ⎛ ⎞ x1 ⎜ x2 ⎟ ⎜ ⎟ (a1 , a2 , . . . , at ) · ⎜ . ⎟ = o ⎝ .. ⎠ xt
aufschreiben. Nach Satz 3.4.5, (b) besitzt diese Gleichung genau dann nur die triviale L¨ osung o, wenn rg(a1 , . . . , at ) = t ist. Also gilt (a). (b) folgt aus (a) und den Eigenschaften des Ranges von Matrizen.
Die im n¨ achsten Satz angegebene Eigenschaft eines Ranges einer Matrix kann auch zur Definition des Ranges einer Matrix verwendet werden. Satz 4.3.2 Der Rang einer Matrix ist gleich der Maximalzahl linear unabh¨angiger Zeilen bzw. Spalten der Matrix. Beweis. F¨ ur Spalten ist Satz 4.3.2 nur eine andere Formulierung der Aussage (b) von Satz 4.3.1. Da nach Satz 3.1.4 rgA = rgAT ist, stimmt die Maximalzahl der linear unabh¨angigen Spalten einer Matrix A mit der Maximalzahl ihrer linear unabh¨ angigen Zeilen u ¨ berein.
4.4 Basen Definition Sei B eine Teilmenge eines K-Vektorraums V . Dann heißt B Basis von V :⇐⇒ B ist linear unabh¨ angig und [B] = V .
4.4 Basen
167
Beispiele − → (1.) Je zwei linear unabh¨ angige Vektoren (Verschiebungen) aus V2 bilden of− → − → fenbar eine Basis von V2 , da man, falls a, b l.u., jeden Vektor x ∈ V2 in der Form x = x1 · a + x2 · b darstellen kann: * x1 · a
a
x
-
b x2 · b − → (2.) Analog u ¨berlegt man sich, daß man aus drei l.u. Vektoren a, b, c des V3 − → eine Basis von V3 erh¨ alt: * 1 · a + x2 · b + x3 · c
x
x=
x · a 1
- : x1 · a
· b x · b + x · c x2 2
b 3 a
x3 · c -
c (3.) Eine Basis des K-Vektorraums K n×1 ist ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 0 1 ⎜0⎟ ⎜1⎟ ⎜0⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ e1 := ⎜ 0 ⎟ , e2 := ⎜ 0 ⎟ , . . . , en := ⎜ 0 ⎟ , ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎝.⎠ ⎝.⎠ ⎝.⎠ 1 0 0
da diese Vektoren offenbar l.u. sind und f¨ ur jedes a := (a1 , . . . , an )T ∈ n×1 K a = a1 · e1 + a2 · e2 + . . . + an · en
gilt. (4.) Eine Basis des R-Vektorraums Pn ist
f1 (x) = xn , f2 (x) = xn−1 , . . . , fn (x) = x, fn+1 (x) = 1. Satz 4.4.1 F¨ ur Teilmengen B eines K-Vektorraums V sind folgende Bedingungen ¨aquivalent: (a) B ist Basis von V . (b) [B] = V ∧ (∀ B ′ : B ′ ⊂ B =⇒ [B ′ ] = V ). (D.h., B ist eine minimale Menge, die V erzeugt.)
168
4 Vektorr¨ aume u orper K ¨ber einem K¨
(c) B l.u. ∧ (∀ a ∈ V \B : B ∪ {a} ist l.a.). Ist V = {o}, so ist außerdem zu obigen Bedingungen ¨aquivalent: (d) Jeder Vektor a ∈ V kann auf genau eine Weise als LK gewisser Vektoren b1 ,. . . ,bn ∈ B dargestellt werden: a = a1 · b 1 + a2 · b 2 + . . . + an · b n , wobei n abh¨angig von a ist. Beweis. 1. Fall: V = {o}. In diesem Fall kann eine Basis B nur die leere Menge sein und die Aussagen des Satzes sind trivial. 2. Fall: V = {o}. Wir zeigen: (a) =⇒ (d) =⇒ (b) =⇒ (c) =⇒ (a). (a) =⇒ (d)“: Offenbar gilt ” [B] = V =⇒ ∀a ∈ V ∃b1 , . . . , bn ∈ B ∃a1 , . . . , an ∈ K : a = a1 ·b1 +. . .+an ·bn . Sei nun a = a′1 · b1 + . . . + a′n · bn eine weitere Darstellung von a durch B. (Daß in beiden Darstellungen dieselben Vektoren b1 , . . . , bn auftreten, bedeutet keine Beschr¨ ankung der Allgemeinheit, da man fehlende Vektoren mit den Koeffizienten 0 aufnehmen kann.) Folglich gilt o = a − a = (a1 − a′1 ) · b1 + . . . + (an − a′n ) · bn . Wegen der linearen Unabh¨ angigkeit der Vektoren b1 , . . . , bn ergibt sich hieraus a1 = a′1 , . . . , an = a′n . Also gilt (d). (d) =⇒ (b)“: Wegen (d) haben wir [B] = V . Sei B ′ ⊂ B und angenommen, ” ′ [B ] = V . Da V = {o}, muß B ′ = {o} sein. Außerdem existiert ein b ∈ B\B ′ mit b = b1 · b′1 + . . . + bn · b′n (b′1 , . . . , b′n ∈ B ′ ). b l¨aßt sich aber auch in der Form b = 1 · b darstellen. Damit haben wir zwei verschiedene Darstellungen von b mittels Vektoren aus B erhalten, im Widerspruch zu (d). (b) =⇒ (c)“: Sei (b) erf¨ ullt. Wegen [B] = V = {o} ist B = ∅. Wir u ¨ berlegen ” uns zun¨ achst, daß B l.u. ist. Falls B = {b}, ist offenbar b = o und damit B l.u. Ist |B| ≥ 2 und angenommen, B l.a., so existieren gewisse b1 , . . . , bn in ur gewisse λ1 , . . . , λn ∈ K und λ1 = 0. B mit λ1 · b1 + . . . + λn · bn = o f¨ Folglich gilt b1 = (1/λ1 ) · (−λ2 · b2 − . . . − λn · bn ), womit b1 ∈ [B\{b1 }], im Widerspruch zu (b). Also ist in jedem Fall B l.u. Offenbar gilt dann außerdem f¨ ur beliebige a ∈ V : B ∪ {a} ist l.a., da sonst B ∪ {a} im Fall der linearen Unabh¨ angigkeit nicht (b) erf¨ ullt. (c) =⇒ (a)“: Sei B eine maximale Menge l.u. Vektoren aus V . Wir haben ” [B] = V zu zeigen. Bezeichne dazu a ein beliebiges Element aus V . Ist a ∈ B, so geh¨ ort nat¨ urlich a zu [B]. Falls a ∈ / B, ist B ∪ {a} nach Voraussetzung l.a., womit es gewisse b2 , . . . , bn ∈ B und gewisse λ1 , . . . , λn ∈ K mit λ1 ·a+λ2 ·b2 +
4.4 Basen
169
. . .+λn ·bn = o sowie λ1 = 0 gibt. Also ist a = (1/λ1 )·(−λ2 ·b2 −. . .−λn ·bn ) ∈ [B] und damit [B] = V bewiesen. Als n¨ achstes wollen wir uns mit der Frage Hat jeder K-Vektorraum eine Basis?“ ” besch¨ aftigen. Unsere Antwort wird zwar ja“ sein, jedoch ist der Beweis nicht ” trivial. Es gibt jedoch gewisse Vektorr¨ aume, f¨ ur die der Nachweis der Existenz von Basen ganz einfach ist. Satz 4.4.2 Sei V ein K-Vektorraum, der eine endliche Teilmenge E mit [E] = V besitzt (d.h., E ist ein Erzeugendensystem von V “ bzw. E erzeugt ” ” V “). Dann existiert eine Teilmenge B von E, die Basis von V ist. Beweis. Seien [E] = V und |E| = k ∈ N0 . Ist E eine Basis, so ist nichts zu beweisen. Falls E keine Basis von V bildet, gibt es ein a1 ∈ E mit a1 ∈ [E\{a1 }]. Folglich ist auch E1 := E\{a1 } ein Erzeugendensystem von V mit k − 1 Elementen. Falls E1 eine Basis bildet, so ist der Beweis beendet. Ist E1 keine Basis, so existiert ein a2 ∈ E1 mit a2 ∈ [E1 \{a2 }]. Folglich gilt schon f¨ ur die (k − 2)-elementige Menge E2 := E1 \{a2 }, daß [E2 ] = V ist, usw. Da k ∈ N0 , muß unser Verfahren nach einer gewissen endlichen Anzahl von Schritten abbrechen und wir erhalten eine Teilmenge von E, die Basis von V ist. Die Begriffe Basis“, Erzeugendensystem“ sowie unser eben gef¨ uhrte Beweis ” ” lassen sich ohne M¨ uhe auf algebraische Strukturen u ¨bertragen. Jede endlich erzeugte algebraische Struktur besitzt demnach eine Basis. Ist die algebraische Struktur nicht mehr endlich erzeugbar, so muß nicht in jedem Fall ein minimales Erzeugendensystem (also eine Basis) existieren. Dazu ein einfaches Beispiel: Wir betrachten die algebraische Struktur (A; ◦) mit A := {ai | i ∈ N} und ai−1 f¨ ur i ≥ 2, ai ◦ aj := (i, j ∈ N), ai f¨ ur i = 1 f¨ ur die offenbar Mengen der Form At := {ai | t ≤ i} (t ∈ N) Erzeugendensysteme sind. Man pr¨ uft nun leicht nach, daß sich diese und auch andere Erzeugendensysteme von A nicht zu minimalen Erzeugendensystemen reduzieren lassen. Dieses Beispiel scheint zwar ziemlich abartig“ zu sein ( (A; ◦) ist noch nicht ” einmal eine Halbgruppe), jedoch gibt es gen¨ ugend andere sinnvollere“ (aber ” auch kompliziertere) Beispiele algebraischer Strukturen ohne Basis (u.a. auch Gruppen!). F¨ ur den Nachweis, daß jeder K-Vektorraum eine Basis besitzt, ben¨ otigen wir noch einige Bezeichnungen und das sogenannte Lemma von Zorn. Sei M ein gewisses Mengensystem, also eine Menge von bestimmten Mengen. Die Enthaltenseinsbeziehung ⊆ ist dann eine teilweise reflexive Ordnungsrelation auf M, die man sich durch ein Hasse-Diagramm veranschaulichen kann.
170
4 Vektorr¨ aume u orper K ¨ber einem K¨
Falls M = {{1, 2, 3}, {2, 3}, {1, 3}, {2}, ∅} haben wir z.B. das folgende HasseDiagramm:
r c c {2,3} r cr {1,2,3}
{2} ra
aar
{1,3}
∅
Bezeichne K eine Teilmenge von M. Dann heißt K Kette :⇐⇒ ∀ M1 , M2 ∈ K : M1 ⊆ M2 ∨ M2 ⊆ M1 . Z.B. ist {∅, {2, 3}, {1, 2, 3}} eine Kette der obigen Menge M. Man nennt ein M ∈ M ein maximales Element von M :⇐⇒ ∀N ∈ M : M ⊆ N =⇒ M = N. In unserem Beispiel ist offenbar {1,2,3} das einzige maximale Element von M. Lemma 4.4.3 (Lemma von Zorn3 ) S Sei M ein Mengensystem. Wenn in jeder Kette K ⊆ M die Menge T ∈K T zu M geh¨ ort, dann gibt es zu jedem A ∈ M ein maximales Element M ∈ M mit A ⊆ M. Wir verwenden das Lemma von Zorn hier als Axiom. Man kann n¨ amlich zeigen (siehe z.B. [Kur 64]), daß dieses Lemma zum sogenannten Auswahlaxiom4 Ist eine Menge M gegeben, dann existiert eine Abbildung ϕ, die jeder ” nichtleeren Teilmenge A von M ein bestimmtes Element ϕ(A) dieser Teilmenge zuordnet.“ a ur dieses Axiom und seiner ¨quivalent ist. Die Frage nach dem logischen Fundament f¨ Zul¨ assigkeit geh¨ ort zu den schwierigsten und umstrittensten Problemen der Mengenlehre. Wir k¨ onnen hier jedoch nicht auf das Auswahlaxiom verzichten, das sich u ¨brigens f¨ ur abz¨ ahlbare Mengen M leicht beweisen l¨ aßt: Wenn die Elemente von M durch nat¨ urliche Zahlen numeriert sind, so erhalten wir die gew¨ unschte Abbildung, indem wir jedem A ∈ M (A = ∅) dasjenige Element aus A zuordnen, das die niedrigste Nummer besitzt. Nach diesen Vorbereitungen ist eine Verallgemeinerung von Satz 4.4.2 nicht weiter schwierig. Dies geschieht im
Satz 4.4.4 Jeder (!) K-Vektorraum besitzt eine Basis. 3 4
Benannt nach Max A. Zorn (1906–1993). Hier nur grob formuliert.
4.4 Basen
171
Beweis.
Sei V ein beliebiger K-Vektorraum und M die Menge aller Teilmengen von V , die linear unabh¨ angig sind. Wir wollen zun¨ achst beweisen, daß M die Voraussetzung des Lemmas von Zorn erf¨ ullt. Dazu bezeichne K eine Kette (⊆ M), d.h., K := {Bi | i ∈ I} und es gilt (∀i, j ∈ I : Bi ⊆ Bj ∨ Bj ⊆ Bi ) ∧ (∀i ∈ I : Bi l.u.). S F¨ ur den Beweis von B := i∈I Bi ∈ M haben wir zu zeigen, daß B l.u. ist. Angenommen, B ist l.a. Dann enth¨ alt B gewisse l.a. Vektoren a1 , . . . , an , wobei jederSVektor aj (1 ≤ j ≤ n) in einer gewissen Menge Bij (ij ∈ I) enthalten ist, da B = i∈I Bi . Die Bij bilden eine Kette. Folglich gibt es ein t ∈ I mit {a1 , . . . , an } ⊆ Bt . Laut Voraussetzung ist aber Bt l.u., womit wir einen Widerspruch zur linearen Abh¨ angigkeit ullt die von {a1 , . . . , an } erhalten haben. Also war unsere Annahme falsch und M erf¨ Voraussetzung des Lemmas von Zorn. Damit gibt es in der Menge M eine maximale Menge l.u. Vektoren, die nach Satz 4.4.1 eine Basis ist. Noch eine Bemerkung: Der obige Beweis ist nur ein Existenzbeweis, leider nicht konstruktiv! Im allgemeinen ist es f¨ ur gewisse Vektorr¨ aume schwierig, Basen zu ermitteln bzw. man kennt bisher f¨ ur diese VRe keine Basen. Dazu ein Beispiel: Sei V die Menge aller Folgen aus reellen Zahlen, d.h., V = {(a1 , a2 , a3 , . . .) | ∀ i ∈ N : ai ∈ R}, die zusammen mit +,·: (a1 , a2 , a3 , . . .) + (b1 , b2 , b3 , . . .) := (a1 + b1 , a2 + b2 , . . .) c · (a1 , a2 , . . .) := (c · a1 , c · a2 , . . .) (ai , bi , c ∈ R, i ∈ N) offenbar einen R-Vektorraum bildet. ¨ Obwohl V auf den ersten Blick große Ahnlichkeit mit R R1×n hat, ist die Verallgemeinerung (1, 0, 0, 0, . . .), (0, 1, 0, 0, . . .), (0, 0, 1, 0, . . .), . . . der Basis (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1) von R R1×n keine von V , da z.B. (1, 1, 1, . . .) nicht von endlich vielen der obigen Vektoren erzeugt werden kann. Nimmt man nun (1, 1, 1, . . .) mit hinzu, so ist der Abschluß dieses Systems immer noch nicht V , da man z.B. nicht (0, 1, 0, 1, 0, 1, . . .) aus endlich vielen Vektoren des Systems konstruieren kann, usw. Dieses Beispiel l¨ aßt vermuten, daß V keine abz¨ ahlbare Basis besitzt.
Wir werden uns nachfolgend in der Regel nur mit endlich erzeugten Vektorr¨ aumen befassen, f¨ ur die wir jetzt noch einige weitere Eigenschaften der Basen zusammentragen wollen. F¨ ur den ersten Satz ben¨ otigen wir das Lemma 4.4.5 Seien a1 , . . . , an ∈ K V und b := λ1 · a1 + . . . + λn · an ∈ K V , wobei ur ein gewisses i ∈ {1, 2, ..., n}.. Dann gilt λi = 0 f¨ [{a1 , . . . , an }] = [{a1 , . . . , ai−1 , b, ai+1 , . . . , an }]. Beweis. O.B.d.A. sei i = 1. Offenbar gilt [{b, a2 , . . . , an }] ⊆ [{a1 , . . . , an }]. Da λ1 = 0, ist außerdem a1 = (1/λ1 ) · (b − λ2 · a2 − . . . − λn · an ), womit auch [{a1 , . . . , an }] ⊆ [{b, a2 , . . . , an }] ist. Also gilt die Behauptung.
172
4 Vektorr¨ aume u orper K ¨ber einem K¨
Satz 4.4.6 (Austauschsatz von Steinitz5 ) Es seien E := {a1 , . . . , an } ein Erzeugendensystem des K-Vektorraums V und B := {b1 , . . . , br } eine linear unabh¨angige Teilmenge von V, {n, r} ⊂ N. Dann gilt: (a) ∃ E ′ ⊆ E : |E ′ | = r ∧ [{b1 , . . . , br } ∪ (E\E ′ )] = V. (b) r ≤ n. Beweis. Wir beweisen (a) und (b) durch vollst¨ andige Induktion u ¨ber r. (I) r = 1: Da [E] = V , existieren gewisse λ1 , . . . , λn ∈ K mit b1 = λ1 ·a1 +. . .+λn ·an , wobei mindestens ein λi = 0, da b1 = o. Damit ergibt sich unsere Behauptung (a) f¨ ur r = 1 aus Lemma 4.4.5. 1 ≤ n gilt laut Voraussetzung. (II) k − 1 → k: Angenommen, (a) und (b) sind f¨ ur r = k − 1 richtig. Folglich ist ur V . Im k − 1 ≤ n und o.B.d.A. {b1 , . . . , bk−1 , ak , . . . , an } ein Erzeugendensystem f¨ Fall k − 1 = n bilden bereits die Vektoren b1 , . . . , bk−1 eine Basis von V und bk ist eine LK der Vektoren b1 , . . . , bk−1 , im Widerspruch zur linearen Unabh¨ angigkeit von b1 , . . . , bk . Daher k¨ onnen wir nachfolgend k − 1 < n annehmen. Da bk ∈ [{b1 , . . . , bk−1 , ak , . . . , an }], gibt es gewisse a1 , a2 , . . . , an ∈ K mit bk = a1 · b1 + . . . + ak−1 · bk−1 + ak · ak + . . . + an · an . alt man einen Widerspruch zur linearen Im Fall ak = ak+1 = . . . = an = 0 erh¨ Unabh¨ angigkeit von b1 , . . . , bk . Folglich existiert ein i ∈ {k, . . . , n} mit ai = 0, womit nach Lemma 4.4.5 die Menge {b1 , . . . , bk−1 , ak , . . . , ai−1 , bk , ai+1 , . . . , an } ein Erzeugendensystem der Menge V ist.
Der Austauschsatz von Steinitz besitzt eine Reihe von wichtigen Folgerungen, die in den S¨ atzen 4.4.7–4.4.10 angegeben sind. Satz 4.4.7 (a) Sei K V ein endlich erzeugter Vektorraum. Dann bestehen alle seine Basen aus gleichviel Vektoren. (b) Besitzt ein Vektorraum eine unendliche Basis, so sind auch alle anderen Basen unendlich. (c) In einem beliebigen Vektorraum haben je zwei Basen die gleiche M¨achtigkeit. Beweis.
(a) und (b) sind offensichtlich Folgerungen aus (c), jedoch einfacher als (c) zu beweisen, was zun¨ achst gezeigt werden soll: Seien B ′ und B ′′ zwei Basen eines VRs V . Ist V endlich erzeugt, so folgt aus Satz 4.4.6, (b) und der linearen Unabh¨ angigkeit von B ′ bzw. B ′′ , daß B ′ und B ′′ endliche Mengen sind, womit man, 5
Ernst Steinitz (1871–1928), deutscher Mathematiker.
4.4 Basen
173
ahlt, indem man zun¨ achst E = B ′ und B = B ′′ und dann E = B ′′ und B = B ′ w¨ alt. als Folgerung aus Satz 4.4.6 |B ′′ | ≤ |B ′ | und |B ′ | ≤ |B ′′ |, also |B ′ | = |B ′′ |, erh¨ (c): Seien B := {bi | i ∈ I} und C := {cj | j ∈ J} zwei beliebig gew¨ ahlte Basen des nicht endlich erzeugten Vektorraums V u orper K. Zum Beweis von (c) ¨ber dem K¨ gen¨ ugt es, |B| ≥ |C| zu zeigen. Da C eine Basis von V ist, gibt es f¨ ur jedes i ∈ I eine gewisse endliche Teilmenge Ji von J und gewisse bij ∈ K (j ∈ Ji ) mit X bi = bij · cj . (4.2) j∈Ji
S ′ {j ∈ Ji | bij = 0} und zeigen als n¨ achstes i∈I Ji = J. Nach S ′ ′ i∈I Ji ⊆ J. Angenommen, es gibt ein k ∈ J\( i∈I Ji ), d.h., es gilt
Ji′S:=
Wir setzen Definition ist
∀i ∈ I : bik = 0.
(4.3)
Da C Basis von V ist, gibt es eine gewisse endlichen Menge Ik ⊂ I und gewisse cl ∈ K mit X ck = cl · bl . (4.4) l∈Ik
Unter Verwendung von (4.2) folgt aus (4.4) X X ck = cl · blj · cj .
(4.5)
j∈Jl
l∈Ik
Wegen (4.3) ist damit der Vektor ck eine LK von Vektoren aus C\{ck }, im WiS derspruch zur linearen Unabh¨ angigkeit von C. Also gilt i∈I Ji′ = J und (c) folgt aus [ ′ [ ′ Ji × {i}| ≤ |N × I| = |I| Ji | ≤ | |J| = | i∈I
i∈I
(siehe Satz 1.5.9).
Satz 4.4.7 rechtfertigt folgende angige) Anzahl der Vektoren einer Basis eines Definitionen Die (basisunabh¨ endlich erzeugten Vektorraums K V heißt Dimension von K V und wird mit dim K V bezeichnet. Speziell ist dim {o} = 0, da [∅] = {o}. Besitzt ein VR K V keine endliche Basis, so wollen wir K V unendlichdimensional (im Zeichen: dim K V = ∞) nennen. Wir vereinbaren, die Dimension n ∈ N eines Vektorraums K V durch KV n
kenntlich zu machen. Beispiele − → − → (1.) Offenbar gilt dim V2 = 2 und dim V3 = 3.
174
4 Vektorr¨ aume u orper K ¨ber einem K¨
(2.) dim Pn = n + 1. (3.) Der UVR
⎧⎛ ⎨ ⎝ ⎩
⎫ ⎞ 0 ⎬ a ⎠ a, b ∈ R ⎭ a+b
von R R3×1 hat die Dimension 2, da ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 0 0 ⎝ a ⎠= a·⎝ 1 ⎠+b·⎝ 0 ⎠ a+b 1 1
und (0, 1, 1)T , (0, 0, 1)T offenbar linear unabh¨angig sind. (4.) Seien A ∈ K m×n und U := {x ∈ K n×1 | A · x = o}. Dann ist U ein UVR ¨ von K m×n mit der Dimension n − rg(A) (Beweis: UA). Eine unmittelbare Folgerung aus Satz 4.4.6 ist der Satz 4.4.8 Sei M eine Teilmenge eines VRs
K V n.
Dann gilt:
M l.u. =⇒ |M | ≤ n. Satz 4.4.9 Sei M ⊆ K V n . Dann gilt: [M ] = V ∧ |M | = n ⇐⇒ M ist Basis. Beweis. ⇐=“ gilt nach Satz 4.4.7. ” =⇒“: Wir haben die lineare Unabh¨ angigkeit von M zu zeigen. ” Angenommen, M ist l.a., d.h., f¨ ur gewisses a ∈ M ist M \{a} ein Erzeugenalt eine Basis von Vn damit h¨ochstens densystem f¨ ur Vn . Nach Satz 4.4.6 enth¨ n − 1 Elemente, im Widerspruch zur Voraussetzung und Satz 4.4.7. Satz 4.4.10 Jede linear unabh¨angige Menge T eines n-dimensionalen VRs l¨aßt sich zu einer Basis B ′ von K V erg¨anzen.
KV
Beweis. Offenbar ist |T | ≤ n und f¨ ur V gibt es eine gewisse Basis {c1 , . . . , cn }. W¨ ahlt man nun in Satz 4.4.6 E = {c1 , . . . , cn } und B = T , so ist Satz 4.4.10 nur eine andere Formulierung von Aussage (a) des Satzes 4.4.6.
4.5 Lineare Unabh¨ angigkeit und Basen u ¨ber einem Untervektorrraum Dieser Abschnitt stellt einige Verallgemeinerungen der Begriffe aus den Abschnitten 4.3 und 4.4 zusammen, die wir nur im Abschnitt 8.4 ben¨ otigen. Definitionen Es sei V ein K-Vektorraum, U ein UVR von V und a1 , . . . , at ∈ V . Dann heißen/heißt
4.5 Lineare Unabh¨ angigkeit und Basen u ¨ber einem Untervektorrraum • • •
175
angig u a1 , . . . , at linear unabh¨ ¨ ber U ( l.u. u ¨ ber U“) :⇐⇒ ” x1 · a1 + x2 · a2 + . . . + xt · at ∈ U =⇒ x1 = x2 = . . . = xt = 0. {a1 , . . . , at } linear unabh¨ angig u ¨ber U ( l.u. u ¨ ber U“) :⇐⇒ ” x1 · a1 + x2 · a2 + . . . + xt · at ∈ U =⇒ x1 = x2 = . . . = xt = 0. M (⊆ V ) linear unabh¨ angig u ¨ber U ( l.u. u ¨ber U“) :⇐⇒ Jede endliche ” Teilmenge von M ist linear unabh¨ angig u ¨ ber U .
Außerdem: • •
angig u a1 , . . . , at (bzw. {a1 , . . . , at } bzw. M (⊆ V )) heißen linear abh¨ ¨ ber U ( l.a. u angig u ¨ ber U sind. ¨ ber U“), wenn sie nicht linear unabh¨ ” B ⊆ V heißt Basis (von V ) u ¨ber U , wenn sie eine maximale Menge von l.u. Vektoren u ¨ ber U ist.
Beispiel
Offenbar ist jede l.u. Menge u ¨ ber {o} l.u. im Sinne von Abschnitt 4.3.
Lemma 4.5.1 Seien U ein UVR des K-Vektorraums V , B eine Basis von U und A ⊆ V . Dann gilt: (a) A ist l.u. ¨ uber U ⇐⇒ A ∪ B l.u. (b) A ist eine Basis von V ¨ uber U ⇐⇒ A ∪ B ist Basis von V . ahlen. Beweis. O.B.d.A. k¨ onnen wir A := {a1 , ..., as } und B := {b1 , ..., bt } w¨ (a): =⇒“: Sei A l.u. u ur gewisse a1 , ..., as , b1 , ..., bt ∈ K ist ¨ ber U . Angenommen, f¨ ” a1 · a1 + ... + as · as + b1 · b1 + ... + bt · bt = o. Folglich ist a1 · a1 + ... + as · as = −(b1 · b1 + ... + bt · bt ) ∈ U und aus der linearen Unabh¨ angigkeit von A u achst a1 = ... = as = 0 und dann ¨ ber U ergibt sich zun¨ (wegen der linearen Unabh¨ angigkeit von B) b1 = ... = bt = 0. Also ist A ∪ B linear unabh¨ angig. ⇐=“: Seien A ∪ B l.u. und u := a1 · a1 + ... + as · as ∈ U beliebig gew¨ ahlt. Dann ” existieren gewisse b1 , ..., bt ∈ K mit u = b1 · b1 + ... + bt · bt . Folglich haben wir a1 · a1 + ... + as · as − (b1 · b1 + ... + bt · bt ) = o, was wegen der linearen Unabh¨ angigkeit von A ∪ B nur f¨ ur a1 = ... = as = b1 = ... = bt = 0 gelten kann. Also ist A l.u. u ¨ ber U . (b): =⇒“: Sei A eine Basis von V u ¨ ber U . Dann ist A ∪ B nach (a) l.u. Falls ein ” c ∈ V \[A ∪ B] existiert, so ist A ∪ B ∪ {c} l.u. und damit A ∪ {c} l.u. u ¨ ber U, womit A keine maximale l.u. Menge u ¨ ber U ist, im Widerspruch zu unserer Voraussetzung. ⇐=“: Sei A ∪ B eine Basis von V . Dann ist A ∪ B eine maximale Menge von l.u. ” Vektoren, womit es insbesondere kein a ∈ V \U gibt, so daß {a} ∪ A ∪ B l.u. ist. Folglich kann nach (a) A nur eine maximale Menge von l.u. Vektoren u ¨ber U sein. Eine Folgerung aus Lemma 4.5.1 ist das folgende Lemma. aume des K-Vektorraums V mit Lemma 4.5.2 Seien U0 , U1 , ..., Um Untervektorr¨ der Eigenschaft U0 := {o} ⊂ U1 ⊂ U2 ⊂ ... ⊂ Um−1 ⊂ Um .
uber Ui−1 f¨ Außerdem sei Bi eine Basis von Ui ¨ ur i = 1, ..., m. Dann ist B1 ∪ B2 ∪ ... ∪ Bm eine Basis von Um .
176
4 Vektorr¨ aume u orper K ¨ber einem K¨
Lemma 4.5.3 Seien T ∈ K n×1 und T0 := {o},
Tk := {x ∈ K n×1 | Tk · x = o} f¨ ur k ∈ N. Dann sind die Tk f¨ ur alle k ∈ N0 Untervektorr¨ aume des K-Vektorraums K n×1 mit den folgenden Eigenschaften: (a) ∀k ∈ N0 : Tk ⊆ Tk+1 . (b) (∃t ∈ N0 : Tt = Tt+1 ) =⇒ (∀s ≥ t : Ts = Tt ). (c) (∃t ∈ N0 : Tt = Tt+1 ) =⇒ (T0 ⊂ T1 ⊂ ... ⊂ Tt ⊂ Tt+1 ). uber Tk+1 (k ∈ N0 ), dann ist (d) Ist A ⊆ Tk+2 l.u. ¨ T · A := {T · a | a ∈ A} ⊆ Tk+1 l.u. ¨ uber Tk . ur ein gewisses k ∈ N0 , so ist die Menge (e) Existiert ein a ∈ Tk+1 \Tk f¨ {a, T · a, T2 · a, ..., Tk · a}
l.u. und es gilt Ti · a ∈ Tk−i+1 \Tk−i f¨ ur alle i ∈ {1, 2, ..., k}. ur jedes k ∈ N0 als Menge aller L¨ osungen eines homoBeweis. Da die Menge Tk f¨ genen LGS aufgefaßt werden kann, ist Tk ein UVR von K n×1 . Wegen Tk · x = o =⇒ Tk+1 · x = o gilt (a). (b): Sei Tt = Tt+1 . Zum Beweis von (b) gen¨ ugt es, zu zeigen, daß Tt+2 = Tt+1 ist. Wegen (a) gilt dies, falls Tt+2 ⊆ Tt+1 . Sei x ∈ Tt+2 beliebig gew¨ ahlt, d.h., es gilt ort. Wegen Tt+2 · x = o. Folglich haben wir Tt+1 (T · x) = o, womit T · x zu Tt+1 geh¨ Tt+1 = Tt gilt dann Tt · (T · x) = o. Also liegt x in Tt+1 , was zu zeigen war. (c) folgt aus (a) und (b). (d): Sei A := {a1 , ..., am } ⊆ Tk+2 l.u. u ¨ber Tk+1 . Dann ist T · A wegen a ∈ A ⊆ Tk+2 =⇒ Tk+2 · a = o =⇒ Tk+1 · (T · a) = o | {z } ∈T·A
ur gewisse x1 , ..., xm ∈ K ist eine Teilmenge von Tk+1 . Angenommen, f¨ x1 · (T · a1 ) + x2 · (T · a2 )... + xm · (T · am ) ∈ Tk , d.h., es gilt Tk · (x1 · (T · a1 ) + x2 · (T · a2 )... + xm · (T · am )) = o beziehungsweise Tk+1 · (x1 · a1 + x2 · a2 + ... + xm · am ) = o. Folglich geh¨ ort x1 · a1 + x2 · a2 + ... + xm · am zu Tk+1 , was wegen der linearen Unabh¨ angigkeit von A u ur x1 = ... = xm = 0 gelten kann. Also ist ¨ ber Tk+1 nur f¨ T · A l.u. u ¨ ber Tk . (e) folgt aus (d).
4.5 Lineare Unabh¨ angigkeit und Basen u ¨ber einem Untervektorrraum
177
ur k ∈ N0 wie im Lemma Satz 4.5.4 Seien T ∈ K n×n , rgT < n 6 und die UVRe Tk f¨ 4.5.3 definiert. Dann gibt es eine kleinste Zahl r ∈ {1, ..., n} mit T0 ⊂ T1 ⊂ ... ⊂ Tr−1 ⊂ Tr = Tr+1 = ... . Außerdem existiert f¨ ur jedes i ∈ {1, ..., r} eine Menge Bi ⊆ Ti , die l.u. u ¨ber Ti−1 ist, und B := B1 ∪ B2 ∪ ... ∪ Br ist eine Basis f¨ ur Tr . Diese Bi lassen sich so w¨ ahlen, daß B die Vereinigung von Mengen der Art {a, T · a, T2 · a, ..., Tka · a} f¨ ur gewisse a ∈ Tr und ka ∈ {0, 1, ..., r − 1} ist. Beweis. Die Existenz eines r ∈ {1, ..., n} mit Tr−1 ⊂ Tr = Tr+1 folgt aus Lemma 4.5.3 und dim Ti ≤ n. Aus Lemma 4.5.3 folgt weiterhin, daß die Ti (i ∈ {0, 1, .., r}) UVR von K n×1 mit T0 ⊂ T1 ⊂ T2 ⊂ ... ⊂ Tr−1 ⊂ Tr
sind. Die Mengen B1 , ..., Br mit der gew¨ unschten Eigenschaft lassen sich wie folgt konstruieren: alt Br nach LemDa Tr−1 ⊂ Tr , gibt es eine Menge Br , die l.u. u ¨ ber Tr−1 ist. Man erh¨ ma 4.5.1 z.B. dadurch, daß man zun¨ achst – von einer Basis E1 von Tr−1 ausgehend – durch Erg¨ anzung eine Basis E2 von Tr konstruiert. Man kann dann Br = E2 \E1 w¨ ahlen. Daß diese Vorgehensweise immer zum Ziel f¨ uhrt, ist durch Satz 4.4.10 gesichert. Die Menge T · Br ist dann eine Teilmenge von Tr−1 und l.u. u ¨ ber Tr−2 . T · Br l¨ aßt sich dann durch die (eventuell leere Menge) Ar−1 zu einer Basis Br−1 von Tr−1 anzen. Als n¨ achstes bildet man dann T · Br−1 und erg¨ anzt diese u u ¨ ber ¨ ber Tr−2 erg¨ angige Teilmenge von Tr−2 zu einer Basis Br−2 von Tr−2 u Tr−3 linear unabh¨ ¨ ber Tr−3 , usw. Der Rest unseres Satzes folgt aus Lemma 4.5.2. Zur Illustration des obigen Satzes noch Seien K = R und 0 0 B1 B T := B B3 @0 0 Wegen
0
B B T2 = B B @
0 0 0 7 1
ein Beispiel: 1 0 0 0 0 0 0 0 0C C 0 0 0 0C C. 1 2 0 0A 1 0 0 0 0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
1 C C C C A
und T3 = O5,5 ist r = 3. Außerdem pr¨ uft man leicht nach, daß – unter Verwendung der Bezeichnungen e1 := (1, 0, 0, 0, 0)T , e2 := (0, 1, 0, 0, 0)T , e3 := (0, 0, 1, 0, 0)T , e4 := (0, 0, 0, 1, 0)T und e5 := (0, 0, 0, 0, 1)T – folgendes gilt: 6
Der Fall rgT = n ist uninteressant, da in diesem Fall dimT0 = dimT1 =dimT2 = ... = 0 ist.
178
4 Vektorr¨ aume u orper K ¨ber einem K¨ T3 = R5×1 = [{e1 , e2 , e3 , e4 , e5 }], T2 = {0, b, c, d, e)T | b, c, d, e ∈ R} = [{e2 , e3 , e4 , e5 }], T1 = {(0, 0, 0, d, e)T | d, e ∈ R} = [{e4 , e5 }].
Offenbar ist dann B3 := {e1 } eine Basis von T3 u ¨ ber T2 , B2 := {T · e1 = (0, 1, 3, 0, 0)T , e2 } eine Basis von T2 u ¨ ber T1 , B1 := {T2 · e1 = (0, 0, 0, 7, 1)T , T · e2 = (0, 0, 0, 1, 1)T } eine Basis von T1 u ¨ber T0 := {o} und B := B1 ∪ B2 ∪ B3 hat die im Satz 4.5.4 genannten Eigenschaften.
4.6 Dimensionss¨ atze, Isomorphie Satz 4.6.1 Sei U ein UVR von
K V n.
Dann gilt:
(a) dim U ≤ n. (b) dim U = n ⇐⇒ U = V . Beweis. (a): U besitzt nach Satz 4.4.4 eine Basis B, wobei jede endliche Teilmenge von B l.u. ist. Da nach Satz 4.4.6, (b) in V die M¨achtigkeit von l.u. Mengen h¨ ochstens n betr¨ agt, kann B h¨ ochstens n Elemente enthalten, womit dim U ≤ n ist. (b): ⇐=“ ist trivial. ” =⇒“: Ist dim U = n, so gibt es in U eine Basis aus n Elementen, die sich ” nach Satz 4.4.10 zu einer Basis von V erg¨ anzen l¨aßt. Da eine Basis von V aber stets genau n Elemente enth¨ alt, ist U = V . Satz 4.6.2 (Dimensionsformel) Seien U und W zwei endlichdimensionale UVRe des K-Vektorraums V . Dann gilt dim U + dim W = dim (U + W ) + dim (U ∩ W ). Beweis. Sei D := U ∩ W . Nach Satz 4.2.3 ist D ebenfalls ein UVR mit dim D = d ≤ dim U (bzw. d ≤ dim W ). Dann besitzt D eine Basis j ∅, falls d = 0, B= {d1 , . . . , dd } sonst. Nach Satz 4.4.10 existieren Erg¨ anzungen von B zu einer Basis B1 von U sowie einer Basis B2 von W : B1 : = B ∪ {a1 , . . . , au } (dim U = d + u), B2 : = B ∪ {b1 , . . . , bw } (dim W = d + w). Als n¨ achstes soll gezeigt werden, daß B ∪ {a1 , . . . , au , b1 , . . . , bw } eine Basis von U + W ist.
4.6 Dimensionss¨ atze, Isomorphie
179
Offenbar kann jeder Vektor x ∈ U + W in der Form x = a + b mit a ∈ U und b ∈ W dargestellt werden. Da sich a als LK von Vektoren aus B1 und b als LK von Vektoren aus B2 darstellen lassen, ist x eine LK von B ∪ {a1 , . . . , au , b1 , . . . , bw }. Zum Nachweis der linearen Unabh¨ angigkeit von B ∪{a1 , . . . , au , b1 , . . . , bw } betrachten wir die Gleichung x1 · d1 + . . . + xd · dd + y1 · a1 + . . . + yu · au + z1 · b1 + . . . + zw · bw = o, die ¨ aquivalent zu x1 · d1 + . . . + xd · dd + y1 · a1 + . . . + yu · au = −z1 · b1 − . . . − zw · bw ist. Da in der letzten Gleichung die linke Seite ein Vektor aus U , die rechte Seite aber ein Vektor aus W ist, m¨ ussen beide Seiten einen Vektor aus U ∩ W beschreiben, der sich als LK von d1 , . . . , dd darstellen lassen muß. Wegen der linearen Unabh¨ angigkeit von B1 und B2 ergibt sich hieraus x1 = . . . = xd = y1 = . . . = yu = z1 = . . . = zw = 0. Folglich dim (U + W ) = d + u + w und damit dim U + dim W = d + u + d + w = (d + u + w) + d = dim (U + W ) + dim (U ∩ W ).
Definition Seien V und W zwei K-Vektorr¨aume. Die zu V geh¨orenden Verkn¨ upfungen seien mit + und · bezeichnet; die von W kennzeichnen wir durch und ⊡. Dann heißt ≈ V isomorph zu W (im Zeichen: V = W ):⇐⇒ ∃ Bijektion ϕ : V → W ∀a, b ∈ V ∀a, b ∈ K : ϕ(a · a + b · b) = (a⊡ϕ(a))(b⊡ϕ(b)) (bzw. ∃ Bijektion ϕ : V → W ∀a, b ∈ V ∀a ∈ K : ϕ(a + b) = ϕ(a)ϕ(b) ∧ ϕ(a · a) = a⊡ϕ(a) ).
≈ ¨ Die Relation = ist offenbar eine Aquivalenzrelation auf einer Menge von KVektorr¨ aumen. Beispiel Die R-Vektorr¨ aume R2×2 und P3 sind isomorph zueinander, da f¨ ur die Abbildung ab ϕ : R2×2 → P3 , → a · x3 + b · x2 + c · x + d cd und beliebigen ac db , ge fh ∈ R2×2 sowie beliebigen α, β ∈ R gilt: ϕ α · ac db + β · ge fh αb+βf = ϕ αa+βe αc+βg αd+βh = (αa + βe)x3 + (αb + βf )x2 + (αc + βg)x + (αd + βh)
= α(ax3 + bx2 + cx + d) + β(ex3 + f x2 + gx + h) = α · ϕ ac db + β · ϕ ge fh .
180
4 Vektorr¨ aume u orper K ¨ber einem K¨
Satz 4.6.3 Seien V und W zwei endlich-dimensionale K-Vektorr¨aume. Dann gilt: ≈ V = W ⇐⇒ dim V = dim W. D.h., f¨ ur jedes n ∈ N0 , ist K n×1 bis auf Isomorphie der einzige n-dimensionale Vektorraum ¨ uber dem K¨orper K.
Beweis. Falls V bzw. W nur aus jeweils einem Element bestehen bzw. dim V = dim W = 0 gilt, ist die Behauptung trivial. ≈ ¨ Da = eine Aquivalenzrelation ist, gen¨ ugt es (zwecks Nachweis der restlichen Behauptungen des Satzes), zu zeigen, daß ein beliebiger n-dimensionaler KVektorraum V zu K n×1 isomorph ist, n ∈ N. Wenn dim V = n, gibt es ur die wir eine Rangfolge“ fixieren: f¨ ur V eine Basis B := {b1 , . . . , bn }, f¨ ” (b1 , . . . , bn ). F¨ ur jeden Vektor a aus V existieren dann eindeutig bestimmte a1 , . . . , an ∈ K mit a = a1 · b1 + a2 · b2 + . . . + an · bn (siehe Satz 4.4.1, (d) ). Auf Grund dieser Eigenschaft ist die Abbildung ϕ : V → K n×1 , a → (a1 , a2 , . . . , an )T bijektiv und es gilt f¨ ur beliebige α, β ∈ K und beliebige a, b ∈ V mit a = a1 · b1 + . . . + an · bn und b = b1 · b1 + . . . + bn · bn : ϕ(α · a + β · b) = ϕ((αa1 + βb1 ) · b1 + (αa2 + βb2 ) · b2 + . . . + (αan + βbn ) · bn ) ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ a1 b1 αa1 + βb1 ⎜ a2 ⎟ ⎜ b2 ⎟ ⎜ αa2 + βb2 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ = α · + β · =⎜ ⎟ ⎜ ⎟ ⎜ .. ⎟ = α · ϕ(a) + β · ϕ(b), .. .. ⎠ ⎝ ⎠ ⎝ ⎝ . . . ⎠ αan + βbn
an
bn
d.h., ϕ ist eine isomorphe Abbildung von V auf K n×1 .
Die im obigen Beweis angegebene Abbildung ϕ beschreibt inhaltlich nichts ¨ anderes als den Ubergang von den Vektoren zu ihren sogenannten Koordinatendarstellungen bez. der Basis B, der in der Schule f¨ ur die Vektorr¨aume − → − → uhrlich besch¨aftigen wir uns mit KoordiV2 und V3 praktiziert wurde. Ausf¨ naten und einigen damit zusammenh¨ angenden Fragestellungen im n¨achsten Abschnitt.
4.7 Koordinaten, Basistransformationen Bezeichne V nachfolgend einen n-dimensionalen K-Vektorraum (n ∈ N) und sei B = {b1 , . . . , bn } eine Basis von V . Mittels der Schreibweise
4.7 Koordinaten, Basistransformationen
181
B := (b1 , b2 , . . . , bn ) kann man eine Reihenfolge der Elemente von B festlegen. Bekanntlich l¨ aßt sich dann jeder Vektor a ∈ V durch eine LK der Form a = a1 · b 1 + a2 · b 2 + . . . + an · b n darstellen (a1 , . . . , an ∈ K). Die Elemente a1 , . . . , an , die a bei fixiertem B vollst¨ andig bestimmen, nennt man die Koordinaten von a bez. B. Wir schreiben ⎛ ⎞ a1 ⎜ a2 ⎟ ⎜ ⎟ a/B = ⎜ . ⎟ ⎝ .. ⎠ an
bzw. (um Elemente aus K n×1 von Koordinatendarstellungen zu unterscheiden) ⎛ ⎞ a1 ⎜ a2 ⎟ ⎜ ⎟ a/B = ⎜ . ⎟ ⎝ .. ⎠ an
B Sp¨ ater, wenn wir neben Koordinaten von Vektoren auch Koordinatendarstellungen f¨ ur Punkte benutzen werden, f¨ ugen wir noch eine sogenannte Erkennungskoordinate 0 f¨ ur Vektoren hinzu und schreiben ⎛ ⎞ 0 ⎜ a1 ⎟ ⎜ ⎟ ⎜ ⎟ a/B = ⎜ a2 ⎟ . ⎜ .. ⎟ ⎝ . ⎠ an
Eine unmittelbare Folgerung aus den S¨ atzen 4.6.3 und 4.3.1 ist der
Satz 4.7.1 (a) ∀a, b ∈ V ∀a ∈ K : (a + b)/B = a/B + b/B ∧ (a · a)/B = a · (a/B ). (b) ∀a1 , . . . , at ∈ V : a1 , . . . , at l.u. ⇐⇒ rg(a1/B , a2/B , . . . , at/B ) = t. Als n¨ achstes wollen wir uns mit dem Umrechnen der Koordinaten bez. einer Basis B in die bez. einer neuen Basis B ′ besch¨aftigen. Als Vorbereitung dazu ein Beispiel: Es sei V = P2 (= {f | (f : R −→ R) ∧ (∃a, b, c ∈ R ∀x ∈ R : f (x) = ur V sind z.B. ax2 + bx + c)}) und K = R. Basen f¨
182
4 Vektorr¨ aume u orper K ¨ber einem K¨
B = (x2 , x, 1) und
B ′ = (x2 + 1, x − 1, 2).
Offenbar gilt ⎛
⎞ 1 x2 + 1/B = ⎝ 0 ⎠ , 1
⎛
⎞ 0 x − 1/B = ⎝ 1 ⎠ , −1
⎛
⎞ 0 und 2/B = ⎝ 0 ⎠ . 2
ur das Will man nun f¨ ur das Polynom f (x) = ax2 + bx + c, f¨ ⎛ ⎞ a f (x)/B = ⎝ b ⎠ c
ist, die Koordinaten bez. B ′ berechnen, so hat man gewisse a′ , b′ , c′ mit f (x) = a′ · (x2 + 1) + b′ · (x − 1) + c′ · 2 zu bestimmen. Aus dieser Gleichung erh¨ alt man nach Satz 4.7.1 die Bedingung f (x)/B = a′ · (x2 + 1)/B + b′ · (x − 1)/B + c′ · (2)/B bzw. ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ′⎞ a 1 0 0 1 0 0 a ⎝ b ⎠ = a′ · ⎝ 0 ⎠ + b ′ · ⎝ 1 ⎠ + c′ · ⎝ 0 ⎠ = ⎝ 0 1 0 ⎠ · ⎝ b ′ ⎠ . c 1 −1 2 c′ 1 −1 2 Aus der Matrixgleichung ⎛
⎞ ⎛ ⎞ ⎛ ′⎞ a 1 0 0 a ⎝ b ⎠ = ⎝ 0 1 0 ⎠ · ⎝ b′ ⎠ c′ c 1 −1 2
l¨aßt sich dann f (x)/B ′ wegen
1 0 0 0 1 0 = 0 1 −1 2 berechnen:
⎛
⎞ ⎛ ⎞−1 ⎛ ⎞ a′ 1 0 0 a ⎝ b′ ⎠ = ⎝ 0 1 0 ⎠ · ⎝ b ⎠ . c′ 1 −1 2 c
→
→
4.8 Anwendungen f¨ ur Vektoren aus V2 bzw. V3
183
Satz 4.7.2 (mit Definition) Seien B = (b1 , b2 , . . . , bn ) und B ′ = (b′1 , b′2 , . . . , b′n ) zwei Basen von K V n . Zwischen den Koordinaten eines Vektors x ∈ V bez. B und den Koordinaten von x bez. B ′ besteht folgender Zusammenhang x/B = M · x/B ′ , wobei M = (b′
1/B
, b′
2/B
, . . . , b′
n/B
¨ ) die sogenannte Ubergangsmatrix von
uhrlich schreibt man anstelle von M auch M(B, B ′ ) und es B zu B ′ ist. Ausf¨ gilt M(B, B ′ ) = (M(B ′ , B))−1 . Beweis. Seien x = x1 · b1 + . . . + xn · bn und x = x′1 · b′1 + . . . + x′n · b′n , ¨ zu d.h., (x/B )T = (x1 , . . . , xn ) und (x/B ′ )T = (x′1 , . . . , x′n ). Durch Ubergang
Koordinaten bez. B erh¨ alt man aus der Gleichung x = x′1 · b′1 + . . . + x′n · b′n die Beziehung x/B = x′1 · (b′1 )/B + . . . + x′n · (b′n )/B , die man auch in der Form ⎛
⎜ ⎜ x/B = (b′1/B , . . . , b′n/B ) · ⎜ ⎝
x′1 x′2 .. . x′n
⎞ ⎟ ⎟ ⎟ ⎠
aufschreiben kann, womit wir den behaupteten Zuammenhang zwischen x/B und x/B ′ erhalten haben. Mit Hilfe von Satz 4.7.1, (b) u ¨berlegt man sich leicht,
daß M eine regul¨are Matrix ist, womit M−1 existiert und damit offenbar auch M(B ′ , B) = (M(B, B ′ ))−1 gilt.
→
→
4.8 Anwendungen fu ¨ r Vektoren aus V2 bzw. V3 Wie schon im Abschnitt 4.1 vereinbart, sei R2 (bzw. R3 ) die Menge aller Punkte der (euklidischen) Anschauungsebene (bzw. des Anschauungsraumes). → − → − Aus Abschnitt 4.1 u ¨bernehmen wir außerdem die Bezeichnungen R, V2 , V3 und − → − → V , wobei V die Menge der Verschiebungen von R sei. − → F¨ ur einen beliebigen Punkt P ∈ R und eine beliebige Verschiebung a ∈ V bezeichnen wir mit P +a den Bildpunkt von P bei der Abbildung a:
r 3 P +a a P r
184
4 Vektorr¨ aume u orper K ¨ber einem K¨
Dieses + hat offenbar folgende Eigenschaften:
(a) ∀ P ∈ R : P + o = P , − → (b) ∀ P ∈ R ∀ a, b ∈ V : (P + a) + b = P + (a + b), − → (c) ∀ P, Q ∈ R ∃! x ∈ V : P + x = Q.
7
Das x aus (c) bezeichnen wir auch mit Q−P bzw.
−− → P Q. − → Mit Hilfe der Verkn¨ upfung + : R × V → R, den Vektorraumoperationen − → sowie den Vektoren aus V lassen sich bestimmte Punktmengen von R gut beschreiben: − → (1.) Sei g ⊆ R eine Gerade. Dann existiert ein a ∈ V \{o} und ein P ∈ g mit g = {X ∈ R | ∃λ ∈ R : X = P + λ · a}. sg a : X P s Wir schreiben g : X =P +λ·a und nennen X = P + λ · a eine Parameterdarstellung f¨ ur g. − → (2.) Bezeichne ε eine Ebene des R3 . Dann existieren l.u. Vektoren a,b aus V3 und ein P ∈ R3 mit ε = {X ∈ R3 | ∃λ, µ ∈ R : X = P + λ · a + µ · b}. 3a -b
qP
q X ε
Wir schreiben ε : X = P +λ·a+µ·b und nennen diese Darstellung von ε eine Parameterdarstellung von ε. 7
Man beachte, daß es sich wieder einmal um verschiedene + handelt.
→
→
4.8 Anwendungen f¨ ur Vektoren aus V2 bzw. V3
185
Damit man mit solchen Darstellungen bequem rechnen kann, f¨ uhrt man in der Regel Koordinaten f¨ ur die Punkte ein. − → Seien n ∈ {2, 3}, B = (b1 , . . . , bn ) eine Basis f¨ ur Vn und A ein fest gew¨ahlur jedes X ∈ Rn existieren dann eindeutig bestimmte ter Punkt aus Rn . F¨ x1 , . . . , xn ∈ R mit X = A + x1 · b1 + . . . + xn · bn , womit X bei einem fixierten Koordinatensystem K = (A; b1 , . . . , bn ) eindeutig durch x1 , . . . , xn bestimmt ist. Wir schreiben ⎞ ⎛ x1 ⎟ ⎜ X/K = ⎝ ... ⎠ bzw. kurz X/K xn
oder (zwecks Unterscheidung von den Koordinatendarstellungen von Vektoren) ⎞ ⎛ 1 ⎜ x1 ⎟ ⎟ ⎜ X/K = ⎜ . ⎟ , ⎝ .. ⎠ xn
wobei 1 die sogenannte Erkennungskoordinate f¨ ur Punkte ist. F¨ ur das Rechnen mit solchen Koordinaten gelten offenbar folgende Regeln: (X + x)/K = X/K + x/B (X − Y )/B = X/K − Y/K
− → (X, Y ∈ Rn ; x ∈ Vn ). Abschließend wollen wir anhand von Beispielen noch einige geometrische Grundaufgaben wiederholen: Sei K = (A; b1 , b2 , b3 ) ein Koordinatensystem des R3 , d.h., A ∈ R3 und − → B := (b1 , b2 , b3 ) ist eine Basis von V3 . Außerdem seien ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 1 0 ⎜1⎟ ⎜1⎟ ⎜ 1⎟ ⎜ −2 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ P/K = ⎜ ⎝ 1 ⎠ , Q/K = ⎝ 1 ⎠ , R/K = ⎝ −1 ⎠ und a/B = ⎝ 0 ⎠ . 2 3 1 1
Bez. K ist dann
(1.) eine Parameterdarstellung der Geraden g, die die Punkte P und Q enth¨ alt8 : 8
Kurzschreibweise f¨ ur eine Gerade g durch die Punkte P und Q: g(P, Q).
186
4 Vektorr¨ aume u orper K ¨ber einem K¨
g: ⎛ X = P⎞+ λ⎛ · (P ⎞ − Q) ⎛ ⎞ 1 1 0 ⎜ x1 ⎟ ⎜ 1 ⎟ ⎜ 0⎟ ⎟ ⎜ ⎟ ⎜ ⎟ g: ⎜ ⎝ x2 ⎠ = ⎝ 1 ⎠ + λ · ⎝ 0 ⎠ ; x3 2 −1
(2.) eine Parameterdarstellung der Ebene ε, die die Punkte P , Q, R enth¨alt9 : ε : X = P + λ · (P − Q) + µ · (P − R) ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 0 0 ⎜ x1 ⎟ ⎜ 1 ⎟ ⎜ 0⎟ ⎜0⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ε: ⎜ ⎝ x2 ⎠ = ⎝ 1 ⎠ + λ · ⎝ 0 ⎠ + µ · ⎝ 2 ⎠ ; x3 2 −1 1
(3.) der Schnittpunkt S der Geraden h : X = A + t · a mit der Ebene ε: ⎛ ⎞ 1 ⎜ 1 ⎟ ⎟ S=⎜ ⎝ 0 ⎠, −1/2 da
S ∈ h ∩ ε ⇐⇒ ∃a, b, c ∈ R : S = A + a · a ∧ S = P + b · (P − Q) + c · (P % −2a = 1 0=1 + 2c ⇐⇒ a=2 − b + c
− R)
a = −1/2 b=2 ; c = −1/2
(4.) eine zu g windschiefe Gerade: z.B. h aus (3.), da das LGS −2t = 1 0=1 t =2−λ offenbar keine L¨ osung besitzt und a und P − Q l.u. sind; (5.) der Schnitt von ε mit ε′ : X = A + s · b1 + t · b2 : ⎛ ⎞ ⎛ ⎞ 1 0 ⎜ ⎜ ⎟ ⎟ 1 ⎜0⎟ ⎟ ε ∩ ε′ : X = ⎜ ⎝ 1 ⎠+µ ·⎝ 2 ⎠, 0 0 9
Kurzschreibweise f¨ ur eine Ebene ε durch die Punkte P , Q, R: ε(P, Q, R).
→
→
4.8 Anwendungen f¨ ur Vektoren aus V2 bzw. V3
187
da X ∈ ε ∩ ε′ ⇐⇒ ∃λ, µ, s, t ∈ R : X = P + λ · (P − Q) + µ · (P − R) ∧ X = A + s · b1 + t · b2 % 1 = s 1 + 2µ = t 2 − λ + µ = 0 % s = 1 ∧ t = 1 + 2µ ∧ λ = 2 + µ ∧ µ ∈ R ⎛ ⎞ ⎛ ⎞ 1 0 ⎜1⎟ ⎜0⎟ ⎟ ⎜ ⎟ ⇐⇒ ∃µ ∈ R : X = A + b1 + (1 + 2 · µ) · b2 = ⎜ ⎝ 1 ⎠+µ· ⎝ 2 ⎠. 0 0
5 Affine R¨ aume
Wir betrachten in diesem Kapitel als Verallgemeinerung der euklidischen (2dimensionalen) Ebene R2 und des euklidischen (3-dimensionalen) Raumes R3 einen sogenannten n-dimensionalen affinen Raum u ¨ ber einem beliebigen K¨ orper K, n ∈ N. Insbesondere wollen wir das Gemeinsame an solchen bekannten Begriffen wie Punkt, Gerade, Ebene, Raum herausarbeiten und es in allgemeinen S¨ atzen niederlegen, aus denen sich dann u.a. durch Spezialisierung konkrete S¨ atze f¨ ur R2 bzw. R3 ableiten lassen. Auch in diesem Kapitel bezeichne K = (K; +, ·) einen beliebigen K¨orper, f¨ ur den wir dieselben Vereinbarungen treffen wollen, wie in den vorangegangenen Kapiteln.
5.1 Die Definition eines affinen Raumes, Beispiele Wir verallgemeinern R2 bzw. R3 , indem wir wesentliche Eigenschaften von R2 bzw. R3 als Axiome f¨ ur den affinen Raum festlegen. Definition Eine nichtleere Menge Rn , deren Elemente P, Q, . . . Punkte genannt werden, heißt n-dimensionaler affiner Raum u ¨ ber dem K¨orper K, wenn mit Rn ein n-dimensionaler Vektorraum Vn u ¨ ber K und eine Abbildung + : Rn × Vn → Rn , P + x → Q, so gegeben sind, daß folgendes gilt: (R1) ∀P ∈ Rn : P + o = P , (R2) ∀P ∈ Rn ∀ a, b ∈ Vn : (P + a) + b = P + (a + b), (R3) ∀P, Q ∈ Rn ∃! x ∈ Vn : P + x = Q,
−− → (Bezeichnungen f¨ ur x: Q − P oder P Q).
190
5 Affine R¨ aume
Beispiele (1.) Offenbar ist R2 (bzw. R3 ) ein 2- (bzw. 3-) dimensionaler affiner Raum u orper R. ¨ber dem K¨ (2.) (Standardbeispiel eines n-dimensionalen affinen Raumes u ¨ ber K) W¨ahlt man ⎧⎛ ⎫ ⎞ 1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎜ x1 ⎟ ⎪ ⎪ ⎪ ⎨⎜ ⎟ ⎬ ⎜ x2 ⎟ Rn = ⎜ ⎟ ∀i ∈ {1, . . . , n} : xi ∈ K ⎜ .. ⎟ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎝ . ⎠ ⎪ ⎪ ⎪ ⎪ ⎩ ⎭ xn und
⎧⎛ ⎪ ⎪ ⎪ ⎜ ⎪ ⎪ ⎨⎜ ⎜ Vn = ⎜ ⎜ ⎪ ⎪ ⎪ ⎝ ⎪ ⎪ ⎩
⎫ ⎞ ⎪ ⎪ ⎪ ⎟ ⎪ ⎪ ⎟ ⎬ ⎟ ⎟ ∀i ∈ {1, . . . , n} : ai ∈ K , ⎟ ⎪ ⎪ ⎪ ⎠ ⎪ ⎪ ⎭ an 0 a1 a2 .. .
so ist Vn zusammen mit der Matrizenaddition und der auf Matrizen definierten Multiplikation mit Skalar (∈ K) ein K-Vektorraum sowie Rn zusammen mit Vn und der Matrizenaddition ein n-dimensionaler affiner Raum u orper K. ¨ ber dem K¨ Aus den Axiomen (R1)–(R3) des affinen Raumes lassen sich eine Reihe von Folgerungen ziehen, die zusammengefaßt sind im Satz 5.1.1 F¨ ur beliebige P, Q, R, S ∈ Rn und beliebige a, b ∈ Vn gilt: −− → (a) P P = o, (b) P + a = Q + a =⇒ P = Q, −−→ −− → −→ (c) P Q + QR = P R, (d) P + a = Q + b =⇒ Q − P = a − b, Qr -Sr −−→ −−→ −−→ −− → > > (e) P Q + QP = o, d.h., P Q = −QP , −−→ −→ −→ −→ (f ) P Q = RS =⇒ P R = QS. - r r P R Beweis.
(R3) − − − → (R3) (R1) − → (a): P + P P = P = P + o =⇒ P P = o. (R2)
(b): (P + a) + (−a) = (Q + a) + (−a) =⇒ P + (a − a) = Q + (a − a) =⇒ P = Q. (R3) −→ −−→ −− → −− → − − → −− → −−→ −− → (c): P + (P Q + QR) = (P + P Q) + QR = Q + QR = R =⇒ P R = P Q + QR. (R2)
(d): P + a = Q + b =⇒ (P + a) + (−b) = (Q + b) + (−b) =⇒ P + (a − b) = Q + o = Q =⇒ Q − P = a − b. (e) folgt aus (c) und (a).
5.2 Koordinaten und Koordinatensysteme
191
−−→ −→ −→ −→ −− → −→ −→ −→ − − → (f): Es gilt P Q + QS + SR + RP = P Q + QS + (−RS) + (−P R) = P P = o. −− → −→ −→ −→ −→ −→ Hieraus folgt, falls P Q − RS = o, daß QS − P R = o bzw. QS = P R.
5.2 Koordinaten und Koordinatensysteme Wie in den Anschauungsr¨ aumen R2 bzw. R3 kann man auch f¨ ur Punkte aus Rn Koordinatendarstellungen einf¨ uhren. Dazu w¨ahlen wir ein A ∈ Rn und eine Basis B = (b1 , . . . , bn ) von Vn . Nach Definition des Rn und den Eigenschaften von Vn existieren zu jedem X ∈ Rn eindeutig bestimmte x1 , . . . , xn ∈ K mit X = A + x1 · b1 + x2 · b2 + . . . + xn · bn . −−→ = AX Bei einem fixierten S := (A; b1 , . . . , bn ), wobei S Koordinatensystem des Rn , A Koordinatenursprung und b1 , . . . , bn die Achsenrichtungen heißen, gen¨ ugt zur Kennzeichnung von X die Angabe von x1 , . . . , xn (den Koordinaten von X bez. S). Wir schreiben: ⎞ ⎛ x1 ⎜ x2 ⎟ ⎜ ⎟ X/S = ⎜ . ⎟ ⎝ .. ⎠ xn
bzw. (zwecks Unterscheidung von Koordinatendarstellungen f¨ ur Vektoren von Vn ) ⎛ ⎞ 1 ⎜ x1 ⎟ ⎜ ⎟ ⎜ ⎟ X/S = ⎜ x2 ⎟ ⎜ .. ⎟ ⎝ . ⎠ xn
(1 ist dabei die sogenannte Erkennungskoordinate f¨ ur Punkte). Zwei leicht nachpr¨ ufbare Eigenschaften der Punktkoordinaten faßt der nachfolgende Satz zusammen.
Satz 5.2.1 F¨ ur beliebige P, Q ∈ Rn und beliebige a ∈ Vn gilt: (a) (P + a)/S = P/S + a/B −− → (b) (P Q)/B = Q/S − P/S .
192
5 Affine R¨ aume
Satz 5.2.2 Seien S := (A; b1 , . . . , bn ) und S ′ := (A′ ; b′1 , . . . , b′n ) zwei Koordinatensysteme des Rn , d.h., B := (b1 , . . . , bn ) und B ′ := (b′1 , . . . , b′n ) sind Basen von Vn und A, A′ ∈ Rn . Zwischen den Koordinaten eines Punktes X ∈ Rn bez. S und den Koordinaten von X bez. S ′ besteht folgender Zusammenhang: X/S = A′ + M · X/S ′ , /S ¨ wobei M = M(B, B ′ ) die Ubergangsmatrix von B zu B ′ (siehe S. 183) bezeichnet, falls keine Erkennungskoordinaten verwendet werden, oder 0
0
0 ... 0
0
M= 0 .. . 0
M(B, B ′ )
gilt, wenn X/S , A′ und X/S ′ mit Erkennungskoordinaten aufgeschrieben /S werden. Beweis.
Falls X/S ′ = (1, x′1 , . . . , x′n )T , gilt X = A′ + x′1 · b′1 + x′2 · b′2 + . . . + x′n · b′n .
¨ Durch Ubergang zu Koordinaten bez. S ergibt sich aus dieser Gleichung unter Beachtung von Satz 5.2.1 sowie Satz 4.7.1: X/S = A′ + x′1 · (b′ ) ) + . . . + x′n · (b′ n/B ⎛ 1/B /S ⎜ ⎜ )·⎜ , . . . , b′ , b′ = A′ + (o, b′ n/B 1/B 2/B /S ⎝
woraus sich unmittelbar unsere Behauptung ergibt.
1 x′1 .. . x′n
⎞
⎟ ⎟ ⎟, ⎠
5.3 Affine Unterr¨ aume Definitionen Seien Rn ein n-dimensionaler affiner Raum u ¨ber K und W ein k-dimensionaler Untervektorraum des zu Rn geh¨orenden Vektorraums Vn . Dann heißt die Menge
5.3 Affine Unterr¨ aume
193
P + W := {P + x | x ∈ W } f¨ ur jeden Punkt P ∈ Rn ein k-dimensionaler affiner Unterraum von Rn bzw. kurz eine k-Ebene von Rn . F¨ ur k = 0 besteht P + W nur aus dem Punkt P . Die 1-Ebene wollen wir auch Gerade und die 2-Ebene nur Ebene nennen, womit sich f¨ ur Rn = Rn (n ∈ {2, 3}) und K = R keine Unterschiede zu den u ¨ blichen Vorstellungen u ¨ ber Gerade“ und Ebene“ ergeben. ” ” Falls k = n − 1 ist, nennt man die k-Ebene auch eine Hyperebene des Rn . Man pr¨ uft nun leicht nach, daß eine k-Ebene P +W die Axiome (R1)–(R3) des affinen Raums erf¨ ullt, wenn man + auf die Mengen P +W und W beschr¨ankt. P + W ist also ein affiner Raum mit dem zugeh¨origen Vektorraum W . Satz 5.3.1 Seien Rn ein affiner Raum und P, Q ∈ Rn . Außerdem seien U und W UVRe des zu Rn geh¨orenden VRs Vn . Dann gilt −−→ P + U = Q + W ⇐⇒ (P Q ∈ U ∧ U = W ). Beweis. =⇒“: Sei P + U = Q + W . Da o ∈ W , gibt es ein a ∈ U mit ” −−→ −− → P + a = Q + o = Q, d.h., a = P Q ∈ U . Entsprechend l¨aßt sich auch QP ∈ W beweisen. Sei jetzt x ein beliebiges Element aus W . Zu diesem x existiert ein −− → y ∈ U mit P + y = Q + x. Wegen Q + x = (P + P Q) + x ist y = a + x, d.h., x = y − a ∈ U . Also gilt W ⊆ U . Analog zeigt man U ⊆ W , woraus sich U = W ergibt. −− → ⇐=“: Seien P Q ∈ U und U = W . Offenbar gibt es dann ein a ∈ U mit ” P + a = Q. Damit gilt P + U = P + (a + U ) = (P + a) + U = Q + U = Q + W . Mit Hilfe einer Basis BW := (b1 , . . . , bk ) des k-dimensionalen UVRs W l¨aßt sich die k-Ebene P + W auch wie folgt beschreiben: P + W = {X ∈ Rn | ∃ t1 , . . . , tk ∈ K : X = P + t1 · b1 + . . . + tk · bk }. Die Gleichung X = P + t1 · b 1 + . . . + tk · b k heißt eine Parameterdarstellung von P +W (mit den Parametern t1 , . . . , tk ) und wir schreiben: P + W : X = P + t1 · b 1 + . . . + tk · b k . Bei konkreten Rechnungen w¨ ahlen wir uns ein Koordinatensystem S = (A; B) des Rn und geben die k-Ebene in der folgenden Form an P + W : X/S = P/S + t1 · (b1/B ) + . . . + tk · (bk/B ). Neben den Parameterdarstellungen von k-Ebenen sind auch sogenannte parameterfreie Darstellungen u achst ein einfaches ¨blich. Zun¨
194
5 Affine R¨ aume
Beispiel mittels
Im Raum R3 sei bez. eines Koordinatensystems S eine Gerade g ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 0 ⎜x⎟ ⎜0⎟ ⎜ 2⎟ ⎟ ⎜ ⎟ ⎜ ⎟ g : X/S = ⎜ ⎝ y ⎠ = ⎝ 1 ⎠ + t · ⎝ −1 ⎠ z 0 3
charakterisiert, d.h., es gilt
x= 2t y=1 − t z= 3t . Ersetzt man nun t in der ersten und dritten Gleichung durch 1 − y, so erh¨alt man das LGS x + 2y =2 3y + z = 3 , das genau von denjenigen x, y, z erf¨ ullt wird, f¨ ur die ein t ∈ R mit x = 2t, ose man das LGS und u y = 1 − t und z = 3t existiert. (Zum Beweis l¨ ¨berzeuge sich davon, daß die Matrizendarstellung der allgemeinen L¨osung bis auf die fehlenden Erkennungskoordinaten eine Parameterdarstellung von g bildet.) Folglich bestimmt das LGS die Gerade g eindeutig und wir haben mit dieser Charakterisierung von g eine sogenannte parameterfreie Darstellung erhalten. Allgemein gilt der Satz 5.3.2 Bezeichne S ein Koordinatensystem des Rn und sei X/S = (x1 , . . . , xn )T =: x. Dann gilt: (a) F¨ ur jede k-Ebene P + W des Rn existieren ein A ∈ K (n−k)×n und eine b ∈ K (n−k)×1 mit rgA = rg(A, b) = n − k und X ∈ P + W ⇐⇒ A · X/S = b. (b) Umgekehrt gibt es zu jedem LGS (*) A · x = b mit rgA = rg(A, b) = n − k eine k-Ebene P + W mit P + W = {X | A · X/S = b}. Beweis. (a): Ist P + W (⊆ Rn ) eine k-Ebene und S := (A; B) ein Koordinatensystem des Rn , so gibt es k l.u. Vektoren c1 , . . . , ck ∈ W mit X ∈ P + W ⇐⇒ X/S = P/S + t1 · (c1/B ) + . . . + tk · (ck/B ) bzw.
5.3 Affine Unterr¨ aume
⎛
⎜ ⎜ X ∈ P + W ⇐⇒ X/S = ⎜ ⎝
x1 x2 .. .
195
⎞
x1 − p1 = c11 t1 + . . . + c1k tk ⎟ x2 − p2 = c21 t1 + . . . + c2k tk ⎟ ⎟ ∧ ............................. ⎠ x n − pn = cn1 t1 + . . . + cnk tk xn
(ci/B = (ci1 , ci2 , . . . , cin )T , i = 1, . . . , k).
Die Matrix (cij )nk besitzt wegen der linearen Unabh¨angigkeit von c1 , . . . , ck k l.u. Zeilen (siehe die S¨ atze 4.3.1, 4.3.2, 4.7.1). O.B.d.A. seien die ersten k Zeilen von (cij )nk l.u. Dann ist |cij |k = 0, womit die ersten k Gleichungen des obigen LGS eindeutig nach t1 , . . . , tk aufl¨osbar sind: t1 = f1 (x1 , . . . , xk ) .. . tk = fk (x1 , . . . , xk ). Ersetzt man nun in den restlichen n − k Gleichungen des betrachteten LGS ucke, so erh¨ alt man nach Zusammenfassungen und t1 , . . . , tk durch diese Ausdr¨ Umordnung der Summanden ein LGS des Typs (**) (siehe Abschnitt 3.4). Umgekehrt sind die L¨ osungen dieses LGS die Koordinaten der Punkte aus P + W. ¨ (b) folgt aus unseren Uberlegungen u ¨ber den Aufbau der L¨osungen eines LGS im Kapitel 3. Das zu einer k-Ebene P + W geh¨ orende LGS (evtl. in Matrizenform aufgeschrieben) aus n − k Gleichungen nennen wir eine parameterfreie Darstellung von P + W und schreiben P + W : A · x = b. Speziell l¨ aßt sich eine Hyperebene H des Rn in der Form H : a1 x1 + a2 x2 + . . . + an xn = b beschreiben, wobei a1 , ..., an , b ∈ K und ai = 0 f¨ ur mindestens ein i ∈ ort ein LGS aus n − 1 l.u. Gleichungen. {1, ..., n}. Zu einer Geraden des Rn geh¨ Insbesondere k¨ onnen wir also eine Gerade g aus R2 durch g : a · x1 + b · x2 = c
((a, b) = (0, 0)),
eine Ebene ε aus R3 durch ε : a · x1 + b · x2 + c · x3 = d
((a, b, c) = (0, 0, 0))
und eine Gerade h aus R3 durch h:
a11 x1 + a12 x2 + a13 x3 = b11 a21x1 + a22 x2 + a23 x3 = b21
(rg beschreiben.
a11 a12 a13 a21 a22 a23
= 2)
196
5 Affine R¨ aume
5.4 Schnitt und Verbindung affiner R¨ aume Satz 5.4.1 Der Durchschnitt ( Schnitt“) von beliebigen Unterr¨ aumen E (i) = Pi + ” Wi (i ∈ I) einesTaffinen Raumes Rn ist T entweder leer oder eine gewisse k-Ebene P + W mit P ∈ i∈I (Pi + Wi ) und W = i∈I Wi . Beweis.
¨ UA.
Seien P1 , . . . , Pr+1 ∈ Rn . Dann heißt die Menge E(P1 , . . . , Pr+1 ) :=
\
E
E {P1 , . . . , Pr+1 } ⊆ E ⊆ Rn E affiner Unterraum
ein von P1 , . . . , Pr+1 aufgespannter affiner Unterraum bzw. eine von P1 , . . . , Pr+1 aufgespannte t-Ebene des Rn (mit passend gew¨ ahltem t). Offenbar ist alt. E(P1 , . . . , Pr+1 ) der kleinste affine Unterraum des Rn , der P1 , . . . , Pr+1 enth¨ ur beliebiges i ∈ {1, 2, . . . , r + 1}: Satz 5.4.2 Seien P1 , . . . , Pr+1 ∈ Rn . Dann gilt f¨ −−→ −−−−→ −−−−→ −−−−→ E(P1 , . . . , Pr+1 ) = Pi + [{Pi P1 , . . . , Pi Pi−1 , Pi Pi+1 , . . . , Pi Pr+1 }].
Beweis.
¨ UA.
Definition Seien P1 , . . . , Pr+1 ∈ Rn . Man sagt P1 , . . . , Pr+1 haben allgemeine Lage (bzw. sind l.u.) :⇐⇒ −−−→ −−−→ −−−−→ P1 P2 , P1 P3 , . . . P1 Pr+1 l.u. Als Folgerung aus 5.3 und Satz 5.4.2 ergibt sich der Satz 5.4.3 Auf jeder k-Ebene gibt es k + 1 Punkte in allgemeiner Lage, w¨ ahrend je t Punkte mit t ≥ k + 1 nicht in allgemeiner Lage sind. Durch je k + 1 Punkte in allgemeiner Lage geht genau eine k-Ebene. Satz 5.4.3 verallgemeinert bekannte Aussagen der Schulgeometrie“: ” • Durch zwei Punkte P , Q mit P = Q aus R geht genau eine Gerade. • Durch drei Punkte aus R3 , die nicht auf einer Geraden liegen, geht genau eine Ebene. Definitionen Seien E (i) = Pi + Wi (i = 1, 2, . . . , t) affine Unterr¨ aume des Rn . Dann heißt die Menge −−−→ −−−→ −−→ E (1) + . . . + E (t) := {P1 + x | x ∈ W1 + . . . + Wt + [{P1 P2 , P1 P3 , . . . , P1 Pt }]} die Verbindung der E (1) , . . . , E (t) bzw. man sagt: E (1) + . . . + E (t) wird von E (1) , . . . , E (t) aufgespannt. Beispiel und
In R3 seien
E (1) : X = P + t · a E (2) : X = Q + s · b,
wobei bez. eines Koordinatensystems S = (A; B)
0
1
1 B0C B P/S = @ C , 1A 3
0
1
1 B4C B Q/S = @ C , 0A 0
5.5 Parallele affine Unterr¨ aume 0 1 0 1 0 0 B 1C B1C B C B a/B = @ und b/B = @ C . 1A 3A −1 1
197
− − → Man pr¨ uft nun leicht nach, daß a, b, P Q l.u. sind. Folglich gilt E (1) + E (2) = − −→ P + [{a, b, P Q}] = R3 . Definition Seien Rn ein affiner Raum und P + W ein affiner Unterraum von Rn . Die Dimension von W nennen wir dann auch Dimension von P + W und bezeichnen sie mit dim (P + W ). Satz 5.4.4 (Dimensionssatz) aume des Rn . Dann gilt Seien E = P + W und E ′ = P ′ + W ′ zwei affine Unterr¨ j ′ f¨ ur E ∩ E ′ = ∅, dim (E ∩ E ) dim E + dim E ′ = dim (E + E ′ ) + ′ f¨ ur E ∩ E ′ = ∅. dim (W ∩ W ) − 1 Beweis. 1. Fall: E ∩ E ′ = ∅. In diesem Fall gibt es ein P ∈ E ∩ E ′ und es gilt E = P + W sowie E ′ = P + W ′ . Hieraus folgt E + E ′ = P + (W + W ′ ), womit nach Satz 4.6.2 dim E + dim E ′ = dim W + dim W ′ = dim (W + W ′ ) + dim (W ∩ W ′ ) = dim (E + E ′ ) + dim (E ∩ E ′ ) gilt. 2. Fall: E ∩ E ′ = ∅. −−→ Wir u achst, daß in diesen Fall P P ′ nicht zu W + W ′ geh¨ ort. An¨ berlegen uns zun¨ −−→′ − − → ′ ′ ′ genommen, P P ∈ W + W . Dann ist aber P P = a + a f¨ ur gewisses a ∈ W und gewisses a′ ∈ W ′ und P + a = P ′ − a′ ∈ E ∩ E ′ , im Widerspruch zu E ∩ E ′ = ∅. −−→ Also gilt dim (E + E ′ ) = dim (W + W ′ + [{P P ′ }]) = dim (W + W ′ ) + 1. Hieraus ergibt sich dann unsere Behauptung mit Hilfe von Satz 4.6.2.
5.5 Parallele affine Unterr¨ aume Definitionen Seien E = P + W und E ′ = P ′ + W ′ zwei affine Unterr¨ aume des Rn . Dann heißen E, E ′ parallel (im Zeichen: EE ′ ) :⇐⇒ W ⊆ W ′ ∨ W ′ ⊆ W .
uckt die obige Definition genau das aus, Man beachte: Falls dim W = dim W ′ , dr¨ was man sich anschaulich unter parallel“ vorstellt. Insbesondere ist die Parallelit¨ at ”¨ gleichdimensionaler R¨ aume eine Aquivalenzrelation. Betrachtet man dagegen Parallelit¨ at verschiedendimensionaler Unterr¨ aume, so ist zwar reflexiv und symmetrisch, aber nicht transitiv, wie folgendes Beispiel aus R3 zeigt:
198
5 Affine R¨ aume E g
E′
Die Ebene E ist parallel zur Geraden g und g ist parallel zu E ′ , aber E ist nicht parallel zu E ′ . Das Schnittverhalten paralleler Unterr¨ aume ist jedoch so, wie man es intuitiv erwartet: aume des Rn . Satz 5.5.1 Seien E = P + W und E ′ = P ′ + W ′ zwei affine Unterr¨ Dann gilt: (a) (E ∩ E ′ = ∅ ∧ EE ′ ) =⇒ (E ⊆ E ′ ∨ E ′ ⊆ E); (b) (¬(EE ′ ) ∧ dim E = n − 1) =⇒ E ∩ E ′ = ∅. Beweis.
(a) ergibt sich aus folgenden Implikationen: E ∩ E ′ = ∅ =⇒ ∃Q ∈ E ∩ E ′ =⇒ E = Q + W ∧ E ′ = Q + W ′ ; EE ′ =⇒ W ⊆ W ′ ∨ W ′ ⊆ W.
(b): Aus ¬(EE ′ ) (d.h., W ⊆ W ′ und W ′ ⊆ W ) und dim E = n − 1 folgt W + W ′ = −−→ −−→ ort P P ′ zu W + W ′ , d.h., es gibt gewisse a und a′ mit P P ′ = a + a′ , Vn . Also geh¨ ′ ′ ′ ′ ′ a ∈ W und a ∈ W . Hieraus folgt nun P − a = P + a, wobei P − a′ ∈ E ′ und P + a ∈ E ist. Damit haben wir E ∩ E ′ = ∅. Satz 5.5.2 Seien E = P +W , E ′ = P ′ +W ′ und E ′′ = P ′′ +W ′′ affine Unterr¨ aume des Rn und E ′ nicht parallel zu E ′′ . Dann gilt (EE ′ ∧ EE ′′ ) ⇐⇒ (W ⊆ W ′ ∩ W ′′ ∨ W ′ + W ′′ ⊆ W ). Beweis. =⇒“: Aus den Voraussetzungen und der Definition der Parallelit¨ at folgt ” zun¨ achst, daß (W ⊆ W ′ ∧ W ⊆ W ′′ ) ∨ (W ′ ⊆ W ∧ W ′′ ⊆ W ) gilt. Hieraus ergibt sich unmittelbar W ⊆ W ′ ∩ W ′′ ∨ W ′ + W ′′ ⊆ W. ⇐=“: Offenbar gilt ” W ⊆ W ′ ∩ W ′′ ∨ W ′ + W ′′ ⊆ W =⇒ (W ⊆ W ′ ∧ W ⊆ W ′′ ) ∨ (W ′ ⊆ W ∧ W ′′ ⊆ W ) =⇒ (EE ′ ∧ EE ′′ ) ∨ (E ′ E ∧ E ′′ E).
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
In diesem Kapitel soll zun¨ achst das aus der Schule her bekannte Skalarprodukt wiederholt werden, f¨ ur dessen Definition es Motivationen aus der Physik gibt (siehe z.B. [Bre-B 66], S. 56, [B¨ oh 81-2], S. 197 oder [Dal-E 91], S. 710). Wir beschr¨ anken uns hier jedoch nur auf einige Anwendungen dieses (anschaulichen) Skalarproduktes in der Geometrie. Anschließend werden wir ein abstraktes Skalarprodukt f¨ ur beliebige Vektor¨aume V u ¨ ber dem K¨orper K ∈ {R, C} als eine Abbildung von V × V in K definieren, die gewisse Re” chenregeln“ erf¨ ullt, die auch f¨ ur das anschauliche Skalarprodukt gelten. In den auf diese Weise erhaltenen Vektorr¨ aumen mit Skalarprodukt – den sogenannten unit¨ aren (K = C) bzw. euklidischen Vektorr¨ aumen (K = R) – lassen sich dann mit Hilfe des Skalarproduktes solche aus der Anschauung her bekannten Begriffe wie Betrag“, Winkel“, Orthogonalit¨at“ ” ” ” einf¨ uhren, die es uns erm¨ oglichen werden, anschauliche“ Konstruktionen aus ” − → aren bzw. euklidischen Vektorr¨ aume zu u V3 auf die unit¨ ¨ bertragen. Erste An¨ wendungen (und damit auch Motivationen) finden diese unsere Uberlegungen dann u.a. im Kapitel 9.
→
→
6.1 Das Skalarprodukt in V2 bzw. V3 Wir u uhrten Be¨bernehmen in diesem Abschnitt die in 4.1 und 4.8 eingef¨ → − → − zeichnungen f¨ ur die Anschauungsvektorr¨ aume V2 , V3 und die Anschauungspunktr¨ aume R2 bzw. R3 . − → Definitionen Sind a, b zwei Vektoren aus V \{o}, so verstehen wir unter ∠(a, b) ( Winkel zwischen a und b“) den Drehwinkel1 , um den ein ” Repr¨ asentant des Vektor a gedreht werden muß, damit er die Richtung 1
Meist im Bogenmaß angegeben.
200
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
und Orientierung eines Repr¨ asentanten des Vektors b hat. Außerdem gelte 0 ≤ ∠(a, b) ≤ π, damit ∠(a, b) eindeutig bestimmt ist. 7 a : b ∠(a, b)
− → Die Vektoren a, b ∈ V heißen senkrecht zueinander oder orthogonal (Bezeichnung: a ⊥ b), wenn ∠(a, b) = π/2 oder wenn o ∈ {a, b}. − → Einen Vektor a ∈ V wollen wir normiert bzw. einen Einheitsvektor nennen, wenn die L¨ ange seiner Repr¨ asentanten 1 betr¨agt. − → F¨ ur V2 fixieren wir im folgenden zwei orthogonale und normierte Vektoren i, j − → sowie f¨ ur V3 die paarweise aufeinander senkrecht stehenden und normierten Vektoren i, j, k . (Sp¨ ater werden wir noch verlangen, daß (i,j,k) außerdem ein sogenanntes Rechtssystem bildet. Wie man allgemein Rechtssysteme definieren kann, wird im Abschnitt 6.6 erl¨ autert.) − → Definition F¨ ur beliebige a, b ∈ V sei 0, falls a = o oder b = o, a · b := |a| · |b| · cos ∠(a, b) sonst das Skalarprodukt der Vektoren a, b. Das skalare Produkt a · b kann geometrisch als Maßzahl derjenigen Rechteckfl¨ ache verstanden werden, die vom Betrag des Vektors a und vom Betrag der Projektion b’ des Vektors b auf a gebildet wird: b 3 b′ a |b′ |
Beispiele − → (1.) Die Vektoren a, b ∈ V2 seien wie folgt gew¨ ahlt: a 45◦ |a| = 1, |b| = 4, ∠(a, b) = π/4. - b √ √ Dann gilt a · b = 1 · 4 · (1/2) · 2 = 2 · 2.
→
→
6.1 Das Skalarprodukt in V2 bzw. V3
201
− → (2.) F¨ ur die oben definierten Vektoren i, j, k aus V3 haben wir i·i= j·j =k·k = 1 und i · j = i · k = j · k = 0.
Nachfolgend werden wir zumeist das Skalarprodukt a · b nicht nach Definition bestimmen, sondern uns der im n¨ achsten Satz angegebenen Rechenregeln bedienen. Satz 6.1.1 (Eigenschaften des Skalarproduktes) − → F¨ ur beliebige a, b, c ∈ V und beliebiges λ ∈ R gilt: (a) (b) (c) (d) (e) (f ) (g)
a · b = b · a, λ · (a · b) = (λ · a) · b = a · (λ · b), a · (b + c) = a · b + a · c, a2 := a · a = |a|2 ≥ 0, a · a = 0 ⇐⇒ a = o, a⊥b ⇐⇒ a · b = 0, a/(i, j, k) = (a1 , a2 , a3 )T ∧ b/(i, j, k) = (b1 , b2 , b3 )T =⇒ a · b = a1 · b 1 + a2 · b 2 + a3 · b 3 .
Beweis. (a), (b) und (d)–(f) folgen unmittelbar aus der Definition des Skalarproduktes und den Eigenschaften der cos-Funktion. (c): Aus der Abbildung * b + c > c b1 -a A S1 S2 S ergibt sich: −→ a · (b + c) = |a| · |b + c| · cos ∠(a, b + c) = |a| · |AS|, −−→ a · b = |a| · |b| · cos ∠(a, b) = |a| · |AS1 |, −−→ a · c = |a| · |c| · cos ∠(a, c) = |a| · |AS2 |. Addition der letzten beiden Gleichungen liefert −→ −−→ −−→ a · b + a · c = |a| · (|AS1 | + |AS2 |) = |a| · |AS|. Also ist unsere Behauptung (c) f¨ ur den oben skizzierten Fall richtig. Den Beweis f¨ ur die anderen m¨ oglichen F¨ alle der Lage von a, b und c u ¨ berlegt man sich analog.
202
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
(g) rechnet man leicht mit Hilfe von (f) und (b) nach. Einige Anwendungen des Skalarproduktes (bei Ausnutzung von Satz 6.1.1) (I.) als Beweishilfsmittel (1.) Beweis eines Spezialfalles der Cauchy-Schwarzschen Ungleichung ∀ a, b, c, a′ , b′ , c′ ∈ R :
2
2
2
(a · a′ + b · b′ + c · c′ )2 ≤ (a2 + b2 + c2 ) · (a′ + b′ + c′ ). Aus der Definition des Skalarproduktes und | cos x| ≤ 1 f¨ ur alle x ∈ R ergibt sich |a · b| ≤ |a| · |b| bzw. |a · b|2 ≤ |a|2 · |b|2 . W¨ahlt man nun a/(i, j, k) = (a, b, c)T und b/(i, j, k) = (a′ , b′ , c′ )T , so folgt hieraus mit Hilfe von Satz 6.1.1, (d), (g) die behauptete Ungleichung. (2.) Beweis des Thalessatzes W¨ ahlt man die Vektoren a und b wie in der nachfolgenden Zeichnung angegeben,
so gilt wegen |a| = |b|: A − B ′ = a − b, A − B = a − (−b) = a + b, (a + b) · (a − b) = a2 − b2 = 0, d.h., die Vektoren A − B und A − B ′ sind orthogonal zueinander. Dies ist jedoch gerade der Inhalt des Thalessatzes. (3.) Beweis des Kosinussatzes Aus der Zeichnung C H γH HH b HaH HH a−b H j H
-B A
a: b: c: γ:
−−→ = |CB| −→ = |CA| − − → = |AB| = ∠(a, b)
→
→
6.1 Das Skalarprodukt in V2 bzw. V3
203
folgt: c2 = |a − b|2 = (a − b) · (a − b) = a2 + b2 − 2 · a · b = |a|2 + |b|2 − 2 · |a| · |b| · cos γ = a2 + b2 − 2ab · cos γ, womit f¨ ur das obige Dreieck c2 = a2 + b2 − 2ab · cos γ ( Kosinussatz“) gilt. ” (II.) in der Geometrie (4.) Zerlegung eines Vektors in Parallel- und Normalkomponente − → − → Seien a ∈ V \{o} und b ∈ V . Der Vektor b l¨aßt sich dann als Summe eines zu a parallelen Vektors b′ und eines zu a orthogonalen Vektors b′′ darstellen: b = b′ + b′′ . > 6 ′ ′′ b=b +b b′′ -q -a ′ b b′ wird dabei die Parallelkomponente und b′′ die Normalkomponente von b bez. a genannt. Zwecks Bestimmung von b′ und b′′ multiplizieren2 wir die Gleichung b = b′ + b′′ (= λ · a + b′′ f¨ ur ein gewisses λ ∈ R, da a"b′ ) skalar mit ′′ a und erhalten wegen b ⊥a: a · b = λ · a2 , woraus b′ =
a·b a2
·a
3
b′′ = b − b′
folgt. (5.) Abstand eines Punktes Q von einer Geraden g (⊆ R2 oder ⊆ R3 ) und Projektion Q′ eines Punktes Q auf g Seien g : X = P + λ · a, Q ∈ R und b := Q − P . Unter Verwendung von (4.) erh¨ alt man dann: ℓ (:= Abstand von Q zu g) = |b′′ | und
Q′ (:= Projektion von Q auf g) = P + b′ ,
wie man sich anhand folgender Skizze leicht klar macht: Q 36 b b′′ g a P b′ 2
3
Ein oft recht brauchbarer Trick“ zur Ermittlung von skalaren Faktoren λ in ” Vektorgleichungen! Siehe dazu auch den Beweis von Satz 6.5.2 aus Abschnitt 6.5. Bitte nicht k¨ urzen!
204
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
(6.) Hessesche4 Form einer Geraden g in der Ebene und Hessesche Form einer Ebene ε im Raum Bezeichne g : X = P + λ · a eine Gerade der Ebene und sei e ein Vektor − → aus V2 , der auf g senkrecht steht. Dann gilt offenbar f¨ ur jeden Punkt X ∈ R2 : X ∈ g ⇐⇒ (X − P )⊥e ⇐⇒ (X − P ) · e = 0. g q X − P KA A P e A q q X A Folglich wird die Gerade g (⊆ R2 ) vollst¨andig durch die Gleichung (X − P ) · e = 0 charakterisiert. Wir schreiben g : (X − P ) · e = 0 und nennen diese Darstellung von g die Hessesche Form von g bzw. Hessesche Normalform der Geraden g, falls |e| = 1 ist. (Hat e ( = o) 1 · e einen zu g orthogonalen nicht die L¨ ange 1, so erh¨ alt man durch |e| Vektor der L¨ ange 1.) W¨ ahlt man als Koordinatensystem S := (A, B), B := (i, j) und X/S = (1; x, y)T , P := (1; p, q)T und e := (0; a, b)T , so l¨aßt sich die obige Hessesche Form von g auch wie folgt aufschreiben: g : a · x + b · y − (p · a + q · b) = 0, womit wir die bereits bekannte parameterfreie Darstellung einer Geraden in der Ebene auf etwas andere Weise hergeleitet haben. Man erkennt u ¨brigens anhand obiger Rechnung, daß aus g : ax + by + c = 0 (bezogen auf S) sofort ein Vektor e mit e⊥g ablesbar ist: e/(i, j) = (0; a, b)T . Beispiel
Bezogen auf das obige Koordinatensystem S sei ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 1 0 g : ⎝x ⎠=⎝2 ⎠+t·⎝ 1 ⎠ y 3 −5
W¨ ahlt man nun P/S := (1; 2, 3)T und e/B := (0; 5, 1)T , so erh¨alt man als Hessesche Form von g: 4
Ludwig Otto Hesse (1811–1874), deutscher Mathematiker.
→
→
6.1 Das Skalarprodukt in V2 bzw. V3
205
⎞T ⎛ ⎞ 0 0 ⎝ x−2⎠ ·⎝5⎠=0 1 y−3 = 5 · (x − 2) + (y − 3) . ⎛
Also: g : 5 · x + y − 13 = 0. ¨ In Verallgemeinerung der obigen Uberlegungen betrachten wir jetzt eine Ebene ε : X = P + λ · a + µ · b des Raumes R3 . Falls e einen Vektor bezeichnet, der auf ε senkrecht steht (d.h., es gilt a⊥e und b⊥e), haben wir analog zu oben f¨ ur alle X ∈ R3 : X ∈ ε ⇐⇒ (X − P )⊥ε ⇐⇒ (X − P ) · e = 0. 6 ε e q q : X P q X − P Also l¨ aßt sich die Ebene ε auch wie folgt durch eine sogenannte Hessesche Form charakterisieren: ε : (X − P ) · e = 0 , die ebenfalls Hessesche Normalform genannt wird, falls |e| = 1 ist. Bez. des Koordinatensystems S := (A; B) mit B := (i, j, k) und mit Hilfe der Bezeichnungen X/S := (1; x, y, z)T , P/S := (1; p, q, r)T , e/B := (0; a, b, c)T lautet die Hessesche Form von ε: ε : a · x + b · y + c · z − (a · p + b · q + c · r) = 0. Man beachte, daß auch in diesem Fall aus der parameterfreien Darstellung einer Ebene ε : a · x + b · y + c · z + d = 0 (bez. S) stets ein zu ε senkrechter Vektor e ablesbar ist: e/B = (0; a, b, c)T . (7.) Abstand eines Punktes Q von einer Geraden g ⊂ R2 und Abstand eines Punktes Q von einer Ebene ε ⊆ R3 Sei die Gerade g (bzw. die Ebene ε) durch eine Hessesche Form gegeben: g (bzw. ε): (X − P ) · e = 0. Aus der Zeichnung q
Q >
Q−P ℓ ϕ e6 e6 q P
g bzw. ε
206
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
ist dann f¨ ur den Abstand ℓ von Q zu g (bzw. ε) folgende Formel ablesbar: ℓ = |Q − P | · cos ϕ = |Q − P | · |e| · |e|−1 · cos ∠(Q − P, e) 1 · (Q − P ) · e. = |e| Falls e nicht wie in der Zeichnung angegeben nach oben, sondern nach unten zeigt, erh¨ alt man analog: ℓ=−
1 · (Q − P ) · e. |e|
Also: 1 ℓ = |e| · (Q − P ) · e ,
d.h., man erh¨ alt ℓ, indem man in der linken Seite der Hesseschen Normalform von g (bzw. ε) X durch Q ersetzt und den Betrag des berechneten Wertes bildet. ¨ Außerdem folgt aus unseren obigen Uberlegungen: 6 e
qQ qQ
e ?
g (bzw. ε) ⇐⇒ (Q − P ) · e > 0
g (bzw. ε) ⇐⇒ (Q − P ) · e < 0
(8.) Abstand zweier windschiefer Geraden g, h des Raumes Zwei Geraden g und h des Raumes R3 , die gegeben sind durch g : X =P +λ·a und h : X = Q + µ · b, sind bekanntlich zueinander windschief, wenn sie nicht parallel zueinander liegen und sich nicht schneiden, d.h., es gilt: a, b l.u. g ∩ h = ∅.
und
Folglich liegen g und h in (eindeutig bestimmten) parallelen Ebenen ε1 und ε2 :
→
→
6.1 Das Skalarprodukt in V2 bzw. V3
207
ε1 : X = P + r · a + s · b ε2 : X = Q + t · a + u · b, und der Abstand ℓ von g zu h ist gleich dem Abstand von ε1 zu ε2 (oder ¨ Q), der sich wiederum nach unseren Uberlegungen aus (7.) durch 1 ℓ = · (Q − P ) · e , |e|
wobei e⊥a und e⊥b gelten muß, berechnen l¨aßt.
ε1 a : q e 6 g R @ P b@ ε1 "ε2 q
ε2 a : @q e 6 @ Q @ R @ @h b@ q
(e l¨ aßt sich leicht (als eine L¨ osung eines LGS mit unendlich vielen L¨osungen) aus a · e = 0 und b · e = 0 berechnen. Aus Abschnitt 6.6 wird sich auch noch die M¨ oglichkeit e := a × b ergeben.) Eine andere M¨ oglichkeit der Berechnung des Abstandes von g zu h, wobei auch noch die Fußpunkte S1 , S2 der Lote von h auf g und g auf h berechnet werden, kann man der folgenden Skizze und den sich aus ihr ergebenen Gleichungen entnehmen: g * a S 1 q B P B q Bℓ B h b : BM q e B S2 q Q S1 = P + λ · a
S2 = Q + µ · b
S1 = S2 + t · e
e·a= e·b = 0
208
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
Aus dem LGS a · e = 0, b · e = 0 ist n¨ amlich ein e berechenbar, mit dessen Hilfe dann aus der Gleichung P +λ·a= Q+µ·b+t·e die eindeutig bestimmten Parameter λ, µ und t bestimmbar sind, die wiederum nach obigen Gleichungen die Berechnungen von S1 , S2 und oglichen. Dazu ein ℓ = |S1 − S2 | erm¨ Beispiel Wir w¨ ahlen das Koordinatensystem S := (A; B) mit B = (i, j, k). Außerdem seien g : X = P + λ · a, h: X = Q+µ·b mit P/S = (1; 0, 1, 2)T , a/B = (0; 1, −1, 3)T , Q/S = (1; 0, 1, 0)T und b/B = (0; 1, 4, 1)T . Falls e/B = (0; e1 , e2 , e3 )T , folgt aus a · e = b · e = 0 das LGS e1 − e2 + 3e3 = 0 e1 + 4e2 + e3 = 0 , das z.B. die L¨ osung e1 = −13, e2 = 2 und e3 = 5 hat. Die Gleichung P + λ · a = Q + µ · b + t · e f¨ uhrt dann auf das LGS λ − µ + 13t = 0 −λ − 4µ − 2t = 0 3λ − µ − 5t = −2 , dessen einzige L¨ osung λ = −108/198,
µ = 22/198,
t = 10/198
ist. Folglich haben wir S1 S2 S1 − S2 |S1 − S2 |
= = = =
P + λ · a = (1; −108/198, 306/198, 72/198)T , Q + µ · b = (1; 22/198, 286/198, 22/198)T , T 10/198 und √ · (0; −13, 2, 5) 10/ 198.
(9.) Richtungskosinus Bildet man der Reihe nach das Skalarprodukt von a = a1 · i + a2 · j + a3 · k mit i, j, k, so erh¨ alt man a1 = a · i,
a2 = a · j,
Da nach Definition des Skalarproduktes
a3 = a · k.
→
→
6.1 Das Skalarprodukt in V2 bzw. V3
209
a · i = |a| · cos ∠(a, i), a · j = |a| · cos ∠(a, j), a · k = |a| · cos ∠(a, k) gilt, ergibt sich hieraus ⎛
⎞ 0 ⎜ cos ∠(a, i) ⎟ ⎟ a = |a| · ⎜ ⎝ cos ∠(a, j) ⎠ , cos ∠(a, k)
was der anschaulichen Vorstellung entspricht, daß ein Repr¨asentant von a durch seine L¨ ange und die Winkel zu den Repr¨asentanten der Basisvektoren eindeutig bestimmt ist: * a ϕ 3 6 ϕ2 k j -ϕ1 i Die Werte cos ϕ1 := cos ∠(a, i), cos ϕ2 := cos ∠(a, j), cos ϕ3 := cos ∠(a, k) heißen die Richtungskosinus von a, die in ¨alteren Geometrieb¨ uchern der analytischen Geometrie eine wesentliche Rolle spielten. Zwischen den Richtungskosinus eines Vektors besteht u ¨brigens folgende Beziehung: cos2 ϕ1 + cos2 ϕ2 + cos2 ϕ3 = 1 ¨ (Beweis: UA). (10.) Winkel zwischen Vektoren, Geraden und Ebenen Unmittelbar aus der Definition des Skalarproduktes folgt f¨ ur beliebige − → Vektoren a, b ∈ V \{o}: cos ∠(a, b) =
a·b |a| · |b|
− → bzw., falls a, b ∈ V3 , B := (i, j, k), a/B = (a1 , a2 , a3 )T und b/B = (b1 , b2 , b3 )T : a1 · b 1 + a2 · b 2 + a3 · b 3 . cos ∠(a, b) = . 2 . a1 + a22 + a23 · b21 + b22 + b23
Seien gi : X = Pi + t · ai , εi : (X − Qi ) · ei = 0 (i = 1, 2) zwei Geraden
210
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
in Parameterdarstellung sowie zwei Ebenen in Hessescher Form. Schneiden sich (a) g1 und g2 (b) ε1 und ε2 (c) g1 und ε1 , so definieren wir den Winkel ϕ zwischen g1 , g2 bzw. ε1 , ε2 bzw. g1 , ε1 durch: g2 X XX a1 X a2 : yX X XX (a) min{∠(a1 , a2 ), ∠(−a1 , a2 )}; X X X XXX X g1
e1 CO XXX e1 e2C X X XC ε1 X XXX (b) min{∠(e1 , e2 ), ∠(−e1 , e2 )}; XX XX X X XXX ε 2 X X X g1 a1 e1 6 ε * (c) π/2 − min{∠(a1 , e1 ), ∠(−a1 , e1 )},
womit die Berechnung dieser Winkel mit Hilfe obiger Formeln m¨oglich ist.
6.2 Das Skalarprodukt in Vektorr¨ aumen u ¨ber den Ko rpern R oder C ¨ Definitionen V bezeichne einen VR u ¨ ber K ∈ {R, C}. Unter einem Skalarprodukt verstehen wir dann eine Abbildung ϕ : V × V → K, die jedem Paar von Vektoren a, b ∈ V eine Zahl ϕ(a, b) ∈ K so zuordnet, daß gilt: (S1) das Skalarprodukt ist bilinear (bzw. ϕ bildet eine Bilinearform), d.h., ∀a, b, c ∈ V ∀α, β, γ ∈ K : ϕ(α · a + β · b, c) = α · ϕ(a, c) + β · ϕ(b, c) ∧ ϕ(a, β · b + γ · c) = β · ϕ(a, b) + γ · ϕ(a, c) (z bezeichnet dabei die zu z ∈ C konjugiert komplexe Zahl, siehe Kapitel 3);
6.2 Das Skalarprodukt in Vektorr¨ aumen u orpern R oder C ¨ ber den K¨
211
(S2) das Skalarprodukt ist f¨ ur K = R symmetrisch, d.h., ∀a, b ∈ V : ϕ(a, b) = ϕ(b, a), und f¨ ur K = C hermitisch5 , d.h., ∀a, b ∈ V : ϕ(a, b) = ϕ(b, a); (S3) das Skalarprodukt ist positiv definit, d.h., ∧
(∀a ∈ V : ϕ(a, a) ∈ R ∧ ϕ(a, a) ≥ 0) (∀a ∈ V : ϕ(a, a) = 0 ⇐⇒ a = o).
Beispiele (1.) F¨ ur den VR R Rn×1 l¨ aßt sich ein Skalarprodukt (das sogenannte Standardskalarprodukt bzw. innere Produkt) mit Hilfe der Matrizenmultiplikation wie folgt definieren: ∀a, b ∈ Rn×1 : ϕ(a, b) := aT · b bzw., falls a = (a1 , a2 , . . . , an )T und b = (b1 , b2 , . . . , bn )T , ϕ(a, b) := a1 · b1 + a2 · b2 + . . . + an · bn . ¨ A.6.2), daß f¨ (2.) Man rechnet leicht nach (UA ur den VR C Cn×1 die durch ϕ(a, b) := aT · b (b := (b1 , b2 , . . . , bn )T , falls b = (b1 , . . . , bn )T ) definierte Abbildung ein Skalarprodukt ist. Auch dieses Skalarprodukt heißt Standardskalarprodukt. (3.) W¨ ahlt man als VR die Menge aller stetigen Funktionen C[a, b] u ¨ ber dem Intervall [a, b] (siehe S. 159) und ein α ∈ R mit α > 0, so ist die durch ∀f, g ∈ C[a, b] : ϕ(f, g) := α ·
/
a
b
f (x) · g(x)dx
definierte Abbildung ein Skalarprodukt dieses VRs. (4.) F¨ ur den VR R R2×1 betrachten wir die Abbildung ϕ ab , dc : = 2a · c + a · d +b ·c + 3 · b · d = (a, b) · 21 13 · dc . 5
Auch u ¨ blich ist die Bezeichnung hermitesch“, die sich aus dem Namen des ” franz¨ osischen Mathematikers Charles Hermite (1822–1901) ableitet.
212
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
Aus der Matrizendarstellung von ϕ folgt, daß ϕ bilinear und symmetrisch ist. F¨ ur den Nachweis der positiven Definitheit formen wir ϕ(x, x) (x := (a, b)T ) um: ϕ(x, x) = 2a2 + ab + ba + 3b2 = a2 + (a2 + 2ab + b2 ) + 2b2 = a2 + (a + b)2 + 2b2 . Offenbar folgt hieraus ϕ(x, x) ≥ 0 f¨ ur alle x ∈ R2×1 und ϕ(x, x) = 0 g.d.w. x = o. Also ist ϕ ein Skalarprodukt.
Definitionen • •
Ein VR u ¨ ber K mit Skalarprodukt heißt
euklidisch :⇐⇒ K = R, unit¨ ar :⇐⇒ K = C.
Satz 6.2.1 Es sei Vn ein n-dimensionaler VR u ¨ber K ∈ {R, C} und ϕ: V ×V →K eine Abbildung, die bilinear ist. Außerdem sei B := (b1 , . . . , bn ) eine Basis von Vn . Dann existiert eine (von B abh¨angige) (n, n)-Matrix Aϕ mit ϕ(x, y) = xT/B · Aϕ · y/B , wobei
⎛
ϕ(b1 , b1 ) ϕ(b1 , b2 ) ⎜ ϕ(b2 , b1 ) ϕ(b2 , b2 ) ⎜ Aϕ := ⎜ .. .. ⎝ . . ϕ(bn , b1 ) ϕ(bn , b2 )
. . . ϕ(b1 , bn ) . . . ϕ(b2 , bn ) .. ... . . . . ϕ(bn , bn )
⎞
⎟ ⎟ ⎟. ⎠
( Gramsche6 Matrix“). ” Umgekehrt ist jede Abbildung der Form ϕA (x, y) = xT/B · A · y/B f¨ ur jedes A ∈ K n×n eine Bilinearform von V × V in K und es gilt A = (ϕA (bi , bj ))n,n . Es seien x, y ∈ Vn mit x/B = (x1 , x2 , . . . , xn )T und y/B = (y1 , y2 , . . . , yn )T beliebig gew¨ ahlt. Da ϕ eine Bilinearform ist, gilt dann
Beweis. 6
Jorgen Pedersen Gram (1850–1916), norwegischer Mathematiker.
6.2 Das Skalarprodukt in Vektorr¨ aumen u orpern R oder C ¨ ber den K¨
213
ϕ(x, y) = ϕ(x1 · b1 + . . . + xn · bn , y1 · b1 + . . . + yn · bn ) = ϕ(x1 · b1 , y1 · b1 ) + ϕ(x1 · b1 , y2 · b2 ) + . . . + ϕ(x1 · b1 , yn · bn )+ ϕ(x2 · b2 , y1 · b1 ) + ϕ(x2 · b2 , y2 · b2 ) + . . . + ϕ(x2 · b2 , yn · bn )+ ····························································+ ϕ(xn · bn , y1 · b1 ) + ϕ(xn · bn , y2 · b2 ) + . . . + ϕ(xn · bn , yn · bn ) = x1 · y1 · ϕ(b1 , b1 ) + x1 · y2 · ϕ(b1 , b2 ) + . . . + x1 · yn · ϕ(b1 , bn )+ x2 · y1 · ϕ(b2 , b1 ) + x2 · y2 · ϕ(b2 , b2 ) + . . . + x2 · yn · ϕ(b2 , bn )+ ····························································+ xn · y1 · ϕ(bn , b1 ) + xn · y2 · ϕ(bn , b2 ) + . . . + xn · yn · ϕ(bn , bn ) ⎛ ⎞ y1 ϕ(b1 , b1 ) + . . . + yn ϕ(b1 , bn ) ⎜ y1 ϕ(b2 , b1 ) + . . . + yn ϕ(b2 , bn ) ⎟ ⎟ = (x1 , . . . , xn ) · ⎜ ⎝ ............................... ⎠ y1 ϕ(bn , b1 ) + . . . + yn ϕ(bn , bn ) ⎛ ⎞ ⎛y ⎞ 1 ϕ(b1 , b1 ) ϕ(b1 , b2 ) . . . ϕ(b1 , bn ) y2 ⎟ ⎜ ϕ(b2 , b1 ) ϕ(b2 , b2 ) . . . ϕ(b2 , bn ) ⎟ ⎜ ⎟ ⎜ ⎟ = (x1 , . . . , xn ) · ⎜ . ⎟ ⎝ .................................... ⎠ · ⎜ ⎝ .. ⎠ ϕ(bn , b1 ) ϕ(bn , b2 ) . . . ϕ(bn , bn ) yn
= x/B · Aϕ · y/B .
Also l¨ aßt sich eine Bilinearform in der behaupteten Matrizenform darstellen. Daß auch umgekehrt eine Abbildung der Form ϕA eine Bilinearform ist, rechnet man leicht mit Hilfe der in den S¨ atzen 3.2.2, 3.2.7 und 3.2.8 aus Ka¨ pitel 3 angegebenen Eigenschaften der Matrizenoperationen nach (UA). Ist k
A = (aij )n,n , so gilt wegen bk/B = (0, . . . , 0, 1, 0, . . . , 0)T (k = i, j) ferner ϕA (bi , bj ) = bT · A · bj /B = aij . i/B Satz 6.2.1 erm¨ oglicht es uns, die Bedingungen (S2) und (S3) aus der Definition eines Skalarproduktes f¨ ur endlich-dimensionale Vektorr¨aume durch Eigenschaften der Matrix Aϕ zu beschreiben: Satz 6.2.2 Bezeichne ϕ eine Bilinearform eines n-dimensionalen VRs V u ¨ ber K ∈ {R, C}. Dann gilt: (a) ϕ ist symmetrisch ⇐⇒ Aϕ = ATϕ , (b) ϕ ist hermitisch ⇐⇒ Aϕ = ATϕ . Beweis. (a) =⇒“: Sei ϕ symmetrisch und bezeichne B := (b1 , . . . , bn ) eine ” Basis von Vn . Dann gilt f¨ ur beliebige a, b ∈ Vn nach Definition sowie nach Satz 6.2.1:
214
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
wobei Aϕ
ϕ(a, b) = aT · Aϕ · b/B /B = ϕ(b, a) = bT · Aϕ · a/B , /B = (ϕ(bi , bj ))n,n . W¨ ahlt man nun speziell a = bi und b = bj , k
i, j ∈ {1, 2, . . . , n}, so haben wir bk/B = (0, . . . , 0, 1, 0, . . . , 0)T (k ∈ {i, j}) und aus obigen Gleichungen folgt ϕ(bi , bj ) = bT · Aϕ · bj /B = bT · Aϕ · bi/B = ϕ(bj , bi ). i/B j /B Also gilt Aϕ = ATϕ . ⇐=“: Falls Aϕ = ATϕ ist, haben wir ” T
ϕ(a, b) = aT · Aϕ · b/B = (aT · Aϕ · b/B )T = bT · (ATϕ ) · (aT ) /B /B /B /B = bT · Aϕ · a/B = ϕ(b, a) /B
T
f¨ ur beliebige a, b ∈ V , womit ϕ eine symmetrische Bilinearform bildet. (b) beweist man analog. Satz 6.2.3 Bezeichne ϕ eine symmetrische (oder hermitische) Bilinearform des n-dimensionalen VRs Vn mit Aϕ = (aij )n bez. der Basis B := (b1 , . . . , bn ) von Vn . Dann sind folgende Bedingungen ¨aquivalent: (a) ϕ ist positiv definit (und damit ein Skalarprodukt). (b) ∃B ∈ K n×n ∃λ1 , . . . , λn ∈ R: ⎛ ⎞ λ1 0 0 . . . 0 ⎜ 0 λ2 0 . . . 0 ⎟ ⎜ ⎟ T ⎟ B · Aϕ · B = ⎜ ∧ ⎜ 0 0 λ3 . . . 0 ⎟ ⎝ ................ ⎠ 0 0 0 . . . λn λ1 > 0 ∧ λ2 > 0 ∧ . . . ∧ λn > 0. (c) ∀r ∈ {1, 2, . . . , n}:
a11 a12 . . . a1r a a . . . a2r Hr := 21 22 .............. ar1 ar2 . . . arr
>0
(d.h., die sogenannten Hauptminoren H1 , ..., Hn von Aϕ sind alle aus R und positiv).
6.2 Das Skalarprodukt in Vektorr¨ aumen u orpern R oder C ¨ ber den K¨
215
Beweis. Um den Beweis m¨ oglichst einfach zu f¨ uhren, ben¨ otigen wir noch den Satz 6.5.2 aus diesem Kapitel sowie Satz 8.3.8 aus Kapitel 8. Dem Leser sei deshalb ¨ empfohlen, sich die nachfolgenden Uberlegungen nach dem Beweis von Satz 8.3.8 noch einmal anzusehen. O.B.d.A. sei K = C. Dann ist ϕ als bilinear und hermitisch, womit es nach Satz 6.2.1 zu jeder Basis B := (b1 , . . . , bn ) eine Matrix Aϕ := ((bi , bj ))n,n ∈ K n×n mit ∀a, b ∈ V : ϕ(a, b) = aT/B · Aϕ · b/B gibt. (a)=⇒(b): Sei zun¨ achst ϕ ein Skalarprodukt. Wegen Satz 6.5.2 (S. 223) existiert dann in V eine (bez. ϕ) orthonormierte Basis ur die es eine Matrix M := M(B, B ′ ) (siehe S. 183) mit B ′ := (b′1 , . . . , b′n ), f¨ ∀x ∈ V : x/B = M(B, B ′ ) · x/B ′ gibt. Folglich erhalten wir f¨ ur beliebige x, y ∈ V : ϕ(x, y) = (M · x/B ′ )T · Aϕ · (M · y/B ′ ) = xT ′ · /B
(MT · Aϕ · M) ·y/B ′ | {z } = (ϕ(b′i , b′j ))n,n = En ,
womit B = M und λ1 = . . . = λn = 1 die Behauptung erf¨ ullen. (b)=⇒(a): Umgekehrt erf¨ ulle nun die bilineare und hermitische Abbildung ϕ die Bedingung (a). Unter Verwendung des Determinantenmultiplikationssatzes 3.2.5 zeigt man leicht, daß |B| = 0 ist. Mit Hilfe von B l¨ aßt sich dann eine Basis B ′ von Vn definieren, so daß x/B = B · x/B ′ f¨ ur beliebige x ∈ V gilt. Folglich haben wir ϕ(x, y) = xT ′ · /B
0 B B B B B B @
B T · Aϕ · B | {z } λ1 0 . . . 0 0 λ2 . . . 0 ............. 0 0 . . . λn
1
·y/B ′
C C C C C C A
= λ1 · x′1 · y1′ + λ2 · x′2 · y2′ + . . . + λn · x′n · yn′ , wobei x/B ′ = (x′1 , . . . , x′n )T und y/B ′ = (y1′ , . . . , yn′ )T ). Wegen λ1 > 0, . . . , λn > 0 folgt hieraus die positive Definitheit von ϕ. Also gilt (a) ⇐⇒ (b). In Vorbereitung auf die Beweise von (a)=⇒(c) und (c)=⇒(b) seien Br := (b1 , . . . , br ), Ur := [{b1 , . . . , br }], Aϕ,r := (aij )r,r und ϕr (x, y) := xT/B · Aϕ,r · y/B r r
(x, y ∈ Ur )
f¨ ur r = 1, 2, . . . , n. ankung von ϕ auf den UVR Ur von V . Offenbar ist ϕr die Beschr¨
216
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
(a)=⇒(c): Wenn ϕ positiv definit und damit ein Skalarprodukt ist, ist f¨ ur beliebiges r ∈ {1, . . . , n} auch ϕr ein Skalarprodukt auf dem UVR Ur . Da wir bereits (a) ⇐⇒ (b) gezeigt haben, gibt es f¨ ur alle r ∈ {1, . . . , n} gewisse positive reelle Zahlen λ1 (r), . . . , λr (r) und eine Matrix Br mit 1 0 λ1 (r) 0 ... 0 B 0 λ2 (r) . . . 0 C C BTr · Aϕ,r · Br = B @ ..................... A. 0 0 . . . λr (r) Folglich haben wir
|BTr · Aϕ,r · Br | = |BTr | · |Aϕ,r | · |Br | = |Br | · |Br | ·|Aϕ,r | | {z } = λ1 (r) · ... · λr (r) > 0,
≥0
woraus sich |Aϕ,r | = |aij |r > 0 f¨ ur alle r ∈ {1, . . . , n} ergibt. (c)=⇒(b): Nach Satz 8.3.8 aus Kapitel 8 folgt aus der vorausgesetzten Eigenschaft von ϕ, hermitisch zu sein, die Existenz einer (unit¨ aren) Matrix B und gewisser λ1 , . . . , λn ∈ R mit 0 1 λ1 0 . . . 0 B 0 λ2 . . . 0 C C B T · Aϕ · B = B @ . . . . . . . . . . . . . A =: D. 0 0 . . . λn
Es bleibt also noch zu zeigen, daß die λi (1 ≤ i ≤ n) alle positiv sind. Aus der Gleichung BT · Aϕ · B = D und der Voraussetzung |Aϕ | > 0 folgt durch Bildung der Determinanten zun¨ achst λ1 · ... · λn > 0. Da ferner |B| = 0 (nach Definition einer unit¨ aren Matrix), wird durch x/B = B · x/B ′ eine Koordinatentransforma-
tion zwischen den Basen B und B ′ := (b′1 , . . . , b′n ) (b′i/B ist i-te Spalte von B) beschrieben. Folglich gilt ϕ(x, y) = xT ′ · BT · Aϕ · B · y/B ′ , /B = D ur i, j ∈ {1, . . . , n} und i = j folgt (siehe woraus ϕ (b′i , b′i ) = λi und ϕ(b′i , b′j ) = 0 f¨ Satz 6.2.1). Sei nun Br′ := (b′1 , . . . , b′r ), 1 ≤ r ≤ n − 1. Indem man Aϕ,r anstelle von Aϕ und ahlt, erh¨ alt man analog zu anstelle von B die Matrix Br := (b′1/B , . . . , b′r/B ) w¨ r
oben: BTr · Aϕ,r · Br = (ϕ(b′i , b′j ))r,r
r
0
1 λ1 0 . . . 0 B 0 λ2 . . . 0 C C =B @ ............. A. 0 0 . . . λr
Bildet man nun det(BTr · Aϕ,r · Br ), so folgt aus der Voraussetzung |Aϕ,r | > 0, daß λ1 · ... · λr > 0 f¨ ur jedes r ∈ {1, . . . , n − 1} ist. Hieraus sowie aus dem oben schon Begr¨ undeten folgt nun unmittelbar, daß die λ1 , ..., λn s¨ amtlich positiv sind.
Ein wichtiges Beweishilfsmittel f¨ ur weitere S¨ atze liefert der
6.2 Das Skalarprodukt in Vektorr¨ aumen u orpern R oder C ¨ ber den K¨
217
Satz 6.2.4 (Cauchy-Schwarzsche Ungleichung7 ) Bezeichne V einen Vektorraum mit Skalarprodukt ϕ. Dann gilt: (a) ∀x, y ∈ V : |ϕ(x, y)|2 ≤ ϕ(x, x) · ϕ(y, y). (b) Das Gleichheitszeichen gilt in der Ungleichung von (a) genau dann, wenn x und y l.a. sind. Beweis. Offenbar gelten unsere Behauptungen (a) und (b) f¨ ur die F¨alle x = o oder y = o. Wir k¨ onnen daher nachfolgend x = o und y = o voraussetzen. W¨ ahlt man nun a := ϕ(x, x) · y − ϕ(y, x) · x, so gilt nach den Eigenschaften eines Skalarproduktes: 0 ≤ ϕ(a, a) = ϕ(ϕ(x, x) · y − ϕ(y, x) · x, ϕ(x, x) · y − ϕ(y, x) · x) = (ϕ(x, x))2 · ϕ(y, y) − ϕ(x, x) · ϕ(y, x) · ϕ(y, x) −ϕ(y, x) · ϕ(x, x) · ϕ(x, y) + |ϕ(y, x)|2 · ϕ(x, x), woraus sich 0 ≤ (ϕ(x, x))2 · ϕ(y, y) − |ϕ(x, y)|2 · ϕ(x, x)
bzw.
0 ≤ ϕ(x, x) · (ϕ(x, x) · ϕ(y, y) − |ϕ(x, y)|2 )
ergibt. Aus der letzten Ungleichung folgt unsere Behauptung (a), da ϕ(x, x) > 0. Zwecks Beweises von (b) sei zun¨ achst |ϕ(x, y)|2 = ϕ(x, x) · ϕ(y, y). Nach den obigen Rechnungen ist dann ϕ(a, a) = 0, was nach Definition von ϕ nur f¨ ur a = o m¨ oglich ist. Da ϕ(x, x) = 0 (wegen unserer Voraussetzung x = o), folgt hieraus die lineare Abh¨ angigkeit von x, y. Sind umgekehrt x, y l.a., so k¨onnen wir wegen x = o anehmen, daß ein λ ∈ K mit x+λ·y=o existiert. Bildet man nun das Skalarprodukt ϕ(x + λ · y, y), so erh¨alt man aus dieser Gleichung (wegen y = o) λ = −ϕ(x, y)/ϕ(y, y). Außerdem folgt aus der Gleichung x + λ · y = o und dem eben bestimmten λ-Wert: 7
Augustin L. Cauchy (1789–1857), franz¨ osischer Mathematiker; Hermann Amandus Schwarz (1843–1921), deutscher Mathematiker.
218
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
0 = ϕ(x + λ · y, x + λ · y)
= ϕ(x, x) + λ · ϕ(x, y) + λ · ϕ(y, x) +|λ|2 · ϕ(y, y)
= λ · ϕ(x, y) = 2Re(λ · ϕ(x, y))
= ϕ(x, x) − 2 · |ϕ(x, y)|2 /ϕ(y, y) + |ϕ(x, y)|2 /ϕ(y, y) = ϕ(x, x) − |ϕ(x, y)|2 /ϕ(y, y).
Also gilt |ϕ(x, y)|2 = ϕ(x, x) · ϕ(y, y). Wir wollen jetzt die aus den Anschaungsr¨ aumen her bekannten Begriffe Betrag“, Orthogonalit¨ at“ und Winkel“ ” ” ” von Vektoren verallgemeinern. Wir werden sehen, daß dies in unit¨aren bzw. euklidischen Vektorr¨ aumen mit Hilfe des in diesen R¨aumen vorliegenden Skalarproduktes leicht zu bewerkstelligen ist, auch wenn man z.B. (wie im n¨achsten Kapitel gezeigt wird) eine Verallgemeinerung des anschaulichen Betrages eines Vektors ohne Verwendung des Skalarproduktes vornehmen kann.
6.3 Norm (Betrag) von Vektoren Indem wir vier (wesentliche) Eigenschaften der Abbildung − → | · | : V → R, a → |a| (|a| bezeichnet die L¨ ange eines Repr¨ asentanten von a) als Axiome ausw¨ahlen, erhalten wir folgende Definitionen Bezeichne V einen beliebigen K-Vektorraum, K ∈ {R, C}. Eine Abbildung " · " : V → R, x → "x" heißt Norm von V , wenn sie folgende vier Eigenschaften f¨ ur beliebige a, b ∈ V und beliebige λ ∈ K besitzt: (N1) (N2) (N3) (N4)
"a" ≥ 0 "a" = 0 ⇐⇒ a = o "λ · a" = |λ| · "a" "a + b" ≤ "a" + "b" ( Dreiecksungleichung“). ” *PP PP b a PP PP q P a+b
Ein Vektorraum, f¨ ur den eine Norm definiert ist, wird ein normierter Raum genannt.
6.3 Norm (Betrag) von Vektoren
219
Beispiele F¨ ur den R-Vektorraum Rn×1 , lassen sich u.a. folgende Normen einf¨ uhren, die wir hier f¨ ur einen beliebigen Vektor a := (a1 , a2 , . . . , an )T angeben. (1.) die euklidische Norm: . "a"2 := √ a21 + a22 + . . . + a2n ( = aT · a; · bezeichnet die Matrizenmultiplikation); (2.) die Maximumnorm: "a"∞ := max |ai |; i, 1≤i≤n
(3.) "a"1 := |a1 | + |a2 | + . . . + |an |.
W¨ ahlt man speziell a = (1, 0, 2, −3)T ∈ R4×1 , so erh¨alt man "a"2 = "a"∞ = 3 und "a"1 = 6.
√ 14,
Ein weiteres Beispiel liefert der n¨ achste Satz: Satz 6.3.1 Bezeichne V einen VR mit Skalarprodukt ϕ. Dann ist die durch . "a||ϕ := ϕ(a, a) (a ∈ V ) definierte Abbildung von V in R eine Norm.
Beweis. Die Axiome (N1) und (N2) einer Norm ergeben sich f¨ ur " · "ϕ aus der positiven Definitheit des Skalarproduktes. Aus der Bilinearit¨at folgt: 0 . . "λ · a"ϕ = ϕ(λ · a, λ · a) = λ · λ · ϕ(a, a) = |λ| · ϕ(a, a) = |λ| · "a"ϕ, womit " · "ϕ auch das Axiom (N3) einer Norm erf¨ ullt. Zwecks Beweises der Dreiecksungleichung bilden wir "a + b"2ϕ = ϕ(a + b, a + b) = ϕ(a, a) + ϕ(a, b) + ϕ(b, a) +ϕ(b, b) = ϕ(a, b) = "a"2ϕ + 2 · Re(ϕ(a, b)) + "b"2ϕ und erhalten hieraus unter Verwendung von Satz 6.2.4, (a): "a + b"2ϕ ≤ "a"2ϕ + "b"2ϕ + 2 · ≤ ("a"ϕ + "b"ϕ)2 .
|ϕ(a, b)| . ≤ ϕ(a, a) · ϕ(b, b) = "a"ϕ · "b"ϕ
Also gen¨ ugt " · "ϕ auch dem Axiom (N4) einer Norm.
220
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
Einige Bemerkungen: (1.) Geh¨ ort der n-dimensionale Vektorraum Vn zu einem n-dimensionalen Punktraum Rn und ist auf Vn eine Norm definiert, so kann man mit Hilfe dieser Norm " · " eine Abstandsfunktion ̺ (eine sogenannte Metrik) f¨ ur den Rn definieren: ∀X, Y ∈ Rn : ̺(X, Y ) := "X − Y ". ̺ hat dann f¨ ur beliebige X, Y, Z ∈ Rn folgende vier Eigenschaften: (M1) ̺(X, Y ) ≥ 0; (M2) ̺(X, Y ) = 0 ⇐⇒ X = Y ; (M3) ̺(X, Y ) = ̺(Y, X); (M4) ̺(X, Y ) ≤ ̺(X, Z) + ̺(Z, Y ) ( Dreiecksungleichung“). ” Zq @ @ @q q
X
Y
(2.) Im Teil III werden wir uns mit N¨ aherungsverfahren zum L¨osen von Gleichungen befassen. Insbesondere werden wir uns bem¨ uhen, f¨ ur ein LGS, das wir in Form einer Matrixgleichung A · x = o (A ∈ Rn×n , |A| = 0; osung n¨ aherungsweise zu bestimmen. Geox, b ∈ Rn×1 ) vorgeben, die L¨ metrisch l¨ aßt sich die L¨ osung x als Punkt in einem n-dimensionalen Raum deuten. Mit Hilfe einer f¨ ur diesen Raum erkl¨arten Metrik (also letztlich mit Hilfe einer Norm) werden wir dann die G¨ ute“ der N¨aherungsl¨osung ” messen. Unsere oben angegebenen Normen f¨ ur den VR Rn×1 sind Beispiele daf¨ ur, auf welche verschiedene Weise Abstandsmessungen“ vor” genommen werden k¨ onnen. Auch bei der Approximation von (komplizierten) Funktionen (∈ C[a, b]) durch (einfachere) Funktionen wird mit Hilfe einer Norm eine sogenannte beste Approximation festgelegt werden k¨ onnen. Die hierbei benutzten Normen spiegeln dann die unterschiedlichen Kriterien (abh¨ angig von der zugrundeliegenden Aufgabenstellung) daf¨ ur wieder, was eine beste Ann¨ aherung ( beste Approximation“) sein ” soll. (3.) In Satz 6.3.1 wurde bewiesen, daß mit Hilfe eines Skalarproduktes eines VRs V eine Norm f¨ ur V definiert werden kann. Jedoch l¨aßt sich nicht jede Norm mit Hilfe eines (passend gew¨ ahlten) Skalarproduktes wie im Satz 6.3.1 angegeben beschreiben. Zum Beispiel hat die Maximumnorm diese ¨ A.6.5) dieses Sachverhaltes u Eigenschaft. Zum Beweis (UA ¨ berlege man sich zun¨ achst, daß jede Norm " · "ϕ (ϕ Skalarprodukt) die sogenannte Parallelogrammeigenschaft: ∀a, b ∈ V : "a + b"2 + "a − b"2 = 2 · "a"2 + 2 · "b"2
6.5 Orthogonalit¨ at
221
b 1 YH H a + b H a a − b H H H a H H H - b besitzt, und zeige anschließend, daß die Maximumnorm diese Eigenschaft nicht hat. Definition
Sei V ein normierter VR und a ∈ V . Dann heißt
a normiert (bzw. a Einheitsvektor) :⇐⇒ "a" = 1.
6.4 Winkel zwischen Vektoren (in euklidischen Vektorr¨ aumen) Sei nachfolgend V ein euklidischer VR mit dem Skalarprodukt ϕ. Sind a, b ∈ V \{o}, so gilt ϕ(a, a) > 0 und ϕ(b, b) > 0. Außerdem folgt aus Satz 6.2.4: ϕ(a, b) ≤ 1. −1 ≤ "a"ϕ · "b"ϕ Folgende Definition ist damit m¨ oglich. Definition Unter einem Winkel zwischen den Vektoren a, b ∈ V \{o} (Bezeichnung: ∠(a, b)) versteht man diejenige Zahl α ∈ R, f¨ ur die gilt: (a) 0 < α ≤ π (b)
und
cos α =
ϕ(a, b) . "a"ϕ · "b"ϕ
¨ Viele sp¨ atere Uberlegungen fußen auf Begriffe und S¨atze aus dem folgenden Abschnitt.
6.5 Orthogonalit¨ at In diesem Abschnitt bezeichne V stets einen Vektorraum mit einem Skalarprodukt ϕ. Definitionen •
Vektoren a, b ∈ V heißen orthogonal (bez. ϕ) (Bezeichnung: a ⊥ b bzw. b ⊥ a) :⇐⇒ ϕ(a, b) = 0.
222
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
•
Ein System von Vektoren bi (i ∈ I) aus V wird orthogonal (bzw. ein Orthogonalsystem) genannt, wenn die Vektoren aus diesem System paarweise zueinander orthogonal sind.
•
Vektoren bi (i ∈ I) aus V heißen orthonormiert :⇐⇒ 1 f¨ ur i = j, ∀i, j ∈ I : ϕ(bi , bj ) = δij := 0 f¨ ur i = j .8
Beispiele (1.) Seien V := R4×1 , K = R und ϕ das Standardskalarprodukt. Dann sind z.B. a := (1, 0, 2, 0)T
und
b := (2, −7, −1, 3)T
orthogonal zueinander und die Vektoren (1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T sind orthonormiert. (2.) W¨ ahlt man V = C[−π, π] (Vektorraum aller stetigen Funktionen u ¨ ber dem Intervall [−π, π]) und / π 1 f (x) · g(x)dx , ϕ(f, g) = · π −π so sind bez. dieses Skalarproduktes z.B. die Funktionen f (x) = cos x
und
g(x) = sin x
orthogonal zueinander, da h(x) := sin x · cos x eine ungerade1Funktion π (d.h.,h(x) = −h(−x)) ist und folglich ϕ(sin x, cos x) = − π1 · −π cos x · sin xdx = 0 gilt. Allgemein l¨ aßt sich zeigen, daß (bezogen auf das obige Skalarprodukt) folgende Orthogonalit¨ aten f¨ ur alle n, m ∈ N0 gelten: cos n · x ⊥ cos m · x (n = m), cos n · x ⊥ sin m · x, sin n · x ⊥ sin m · x (n = m). In der Analysis werden diese Eigenschaften der cos- und sin-Funktionen bei der Bestimmung sogenannter Fourier-Reihen f¨ ur periodische Funktionen benutzt.9 8
9
δij wird Kroneckersymbol genannt (nach dem deutschen Mathematiker Leopold Kronecker (1823 - 1891)). Siehe dazu auch die Bemerkung nach Satz 6.5.4.
6.5 Orthogonalit¨ at
223
Satz 6.5.1 Jede Menge B (⊆ V ) von orthogonalen Vektoren, die nicht den Nullvektor enth¨alt, ist l.u. Beweis.
¨ A.6.10. UA
Als besonders wichtig wird sich sp¨ ater folgender Satz erweisen. Satz 6.5.2 Bezeichne V einen VR mit endlicher oder abz¨ahlbarer Basis ¨ uber dem K¨orper K ∈ {R, C} mit Skalarprodukt ϕ. Dann besitzt V eine orthonormierte Basis. Beweis.
(Schmidtsches Orthonormierungsverfahren10 (kurz: ONV)).
O.B.d.A. gen¨ ugt es, den Satz nur f¨ ur n-dimensionale Vektorr¨aume zu beweisen (n ∈ N). Sei also V ein solcher VR, f¨ ur den es nach den S¨atzen 4.4.4 und 4.4.7 eine Basis aus n l.u. Vektoren a1 , a2 , . . . , an (∈ V ) ¨ gibt. Ziel der nachfolgenden Uberlegungen ist die Konstruktion von LK e1 , e2 , . . . , en (∈ V ) aus den Vektoren a1 , . . . , an , die orthonormiert sind. Wir beginnen mit der Bestimmung von e1 : Offenbar geh¨ ort die LK 1 e1 := · a1 "a1 "ϕ
zu V und sie ist normiert. Als n¨ achstes konstruieren wir e2 : Der Vektor b2 := a2 − ϕ(a2 , e1 ) · e1 ist wegen ϕ(b2 , e1 ) = ϕ(a2 − ϕ(a2 , e1 ) · e1 , e1 ) = ϕ(a2 , e1 ) − ϕ(a2 , e1 ) · ϕ(e1 , e1 ) = 0
ort als LK von e1 und a2 zu V . orthogonal zu e1 und geh¨ Also erh¨ alt man e2 durch b2 := a2 − ϕ(a2 , e1 ) · e1 e2 := b21ϕ · b2 ¨ (Uberlegen kann man sich die obige Formel f¨ ur b2 wie folgt: Angenommen, es gibt einen Vektor b2 ∈ [{e1 , a2 }], der zu e1 orthogonal ist. Dann gibt es auch ein λ ∈ K mit 10
a2 = λ · e1 + b2 . Erhard Schmidt (1876–1959), deutscher Mathematiker.
224
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
6 b2
r
a2
e1
-
- λ · e1
Bildet man nun das Skalarprodukt ϕ(a2 , e1 ), so folgt aus ϕ(b2 , e1 ) = 0, daß λ = ϕ(a2 , e1 ) sein muß, woraus sich dann die obige Formel f¨ ur b2 ergibt.) e3 : Man rechnet leicht nach, daß der Vektor b3 := a3 − ϕ(a3 , e1 ) · e1 − ϕ(a3 , e2 ) · e2 aus [{e1 , e2 , a3 }] zu e1 und e2 orthogonal ist. Folglich erhalten wir e3 durch Normieren von b3 : 1 · b3 . e3 := "b3 "ϕ (Auch in diesem Fall kann man sich die Formel f¨ ur b3 aus der Gleichung a3 = b3 + λ · e1 + µ · e2 und der Forderung ϕ(b3 , e1 ) = ϕ(b3 , e2 ) = 0 herleiten, indem man die obige Gleichung zun¨ achst skalar mit e1 und dann mit e2 multipliziert.) 7
a3 b3 · e2 r µ r - λ · e1 e1 6
Usw. Zusammenfassend erhalten wir folgende Formeln zur Berechnung einer orthonormierten Basis von V aus n l.u. Vektoren a1 , . . . , an ∈ V :
6.5 Orthogonalit¨ at
225
b1 := a1 bi := ai − ek :=
i−1
j=1
ϕ(ai , ej ) · ej
(i = 2, 3, . . . , n) 1 bk ϕ · bk (k = 1, 2, . . . , n)
Beispiel
Im VR R R5×1 mit dem Standardskalarprodukt ϕ(a, b) := aT · b
wollen wir f¨ ur den UVR U := [{a1 , a2 , a3 , a4 }], wobei ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 −1 2 1 ⎜1⎟ ⎜ 0⎟ ⎜1⎟ ⎜0⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ a1 = ⎜ ⎜ 1 ⎟ , a2 = ⎜ 0 ⎟ , a3 = ⎜ 0 ⎟ , a4 = ⎜ 1 ⎟ ⎝1⎠ ⎝ 1⎠ ⎝0⎠ ⎝0⎠ 0 0 0 0
sei, eine orthonormierte Basis bestimmen. Da a4 = a1 + a2 + a3 und a1 , a2 , a3 l.u. sind, haben wir dazu nach dem Schmidtschen Orthonomierungsverfahren aus a1 , a2 , a3 orthonormierte Vektoren e1 , e2 , e3 zu ermitteln. Wir erhalten e1 : ⎛ ⎞ 1 ⎜0⎟ 1 1 ⎜ ⎟ 1⎟ e1 = · a1 = √ · ⎜ ⎟. "a1 "ϕ 2 ⎜ ⎝0⎠ 0
e2 :
⎛ ⎞ ⎛ ⎞ ⎞ 1 1 2 ⎜0⎟ ⎜ 1⎟ ⎜1⎟ ⎟ ⎜ ⎟ ⎜ ⎟ 1 ⎜ 2 ⎜ ⎟ 1⎟ −1 ⎟ =⎜ b2 := a2 − ϕ(a2 , e1 ) · e1 = ⎜ 0 ⎟ − √ · √ · ⎜ ⎜ ⎜ ⎟ 2 2 ⎝0⎠ ⎝ 0⎟ ⎠ ⎝0⎠ 0 0 0 ⎛ ⎞ 1 ⎜ 1⎟ ⎟ 1 1 ⎜ −1 ⎟ · b2 = √ · ⎜ e2 = . ⎜ "b2 "ϕ 3 ⎝ 0⎟ ⎠ 0 ⎛
226
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
e3 : b3 = ⎛ a3 − ϕ(a ) · e2 ⎞ ⎞ 3 , e1 ) ·⎛e1 −⎞ϕ(a3 , e2⎛ −1 1 1 ⎜ 0⎟ ⎜0⎟ ⎜ 1⎟ ⎜ ⎟ 1 ⎜ ⎟ 1 ⎜ ⎟ 1 ⎜ ⎟ ⎜ ⎟ ⎟ = ⎜ ⎜ 0 ⎟ + 2 · ⎜ 1 ⎟ + 3 · ⎜ −1 ⎟ = 6 ⎝ 1⎠ ⎝0⎠ ⎝ 0⎠ 0 0 0 ⎛ ⎞ −1 ⎜ 2⎟ ⎜ ⎟ 1 1 1⎟ e3 = . · b3 = √ · ⎜ ⎜ "b3 "ϕ 42 ⎝ 6 ⎟ ⎠ 0
⎛
⎞ −1 ⎜ 2⎟ ⎜ ⎟ ⎟ ·⎜ ⎜ 1⎟ ⎝ 6⎠ 0
Nachfolgend einige Folgerungen aus Satz 6.5.2:
Satz 6.5.3 F¨ ur jedes Skalarprodukt ϕ eines n-dimensionalen VRs u ¨ ber K ∈ {R, C} existiert eine Basis B, so daß ∀x, y ∈ V : ϕ(x, y) = xT/B · y/B gilt. Beweis. W¨ ahlt man in Satz 6.2.1 die Basis B orthonormiert, so ist Aϕ die Einheitsmatrix und unsere Behauptung ist bewiesen. M¨oglich ist nach diesem Satz die Vereinbarung: ¨ und Beispielen Wenn nicht anders angegeben, werden wir nachfolgend in UA immer annehmen, daß unser Skalarprodukt in Vn mit Hilfe von Koordinaten bez. einer orthonormierten Basis berechnet wird, d.h., wir nehmen an, daß ϕ das Standardskalarprodukt ϕ(x, y) = x1 · y1 + x2 · y2 + . . . + xn · yn (x/B = (x1 , x2 , . . . , xn )T , y/B = (y1 , y2 , . . . , yn )T ) ist. Anstelle von ϕ(x, y) schreiben wir dann auch < x, y > . Bemerkung In einem endlich-dimensionalen VR ist es g¨ unstig, Basen stets orthonormiert zu w¨ ahlen. Wenn nicht ausdr¨ ucklich anders angegeben, werden wir nachfolgend stets so handeln. Einen (weiteren) Vorteil dieser Wahl kann man dem n¨ achsten Satz entnehmen. Satz 6.5.4 Bezeichne V einen n-dimensionalen VR mit Skalarprodukt ϕ. Außerdem sei (e1 , . . . , en ) eine orthonormierte Basis von V . Dann gilt:
6.5 Orthogonalit¨ at
⎛
227
⎞
ϕ(a, e1 ) ⎜ ϕ(a, e2 ) ⎟ ⎜ ⎟ a/B = ⎜ ⎟. .. ⎝ ⎠ . ϕ(a, en )
Beweis. Die G¨ ultigkeit der Aussage u ¨ berlegt man sich analog zum Beispiel (9.), S. 208. Bemerkung Die Idee aus Satz 6.5.4, Koordinaten mittels Skalarprodukt zu berechnen, verwendet man auch in der Analysis (genauer in der Funktionalanalysis), wo es u.a. um die L¨ osung des folgenden Problems geht: Gegeben sei eine stetige Funktion f , die periodisch bez. des Intervalls [−π, π] ist. Z.B. habe f folgende Gestalt: y 6 B BB
−2π
B BB −π
B BB
B BB π
B BB 2π
-x
(Obige Funktion ist auch periodisch bez¨ uglich des Intervalls [0, π].) Gesucht wird eine Reihenentwicklung (eine sogenannte Fourier-Reihe) f¨ ur f der Form f (x) =
∞ X i=0
ai · fi (x),
wobei √ f0 (x) = 1/ 2, f1 (x) = cos x, f2 (x) = sin x, f3 (x) = cos 2x, f4 (x) = sin 2x, f5 (x) = cos 3x, f6 (x) = sin 3x, . . . Die unbekannten Koeffizienten ai (i ∈ N0 ) lassen sich dann (hier grob skizziert) dadurch bestimmen, daß zun¨ achst die Orthonormiertheit der Funktionen fi (i ∈ N0 ) bez. des Skalarprodukts Z π ϕ(g, h) := (1/π) · g(x) · h(x)dx −π
(g, h ∈ C[−π, π]) gezeigt wird, woraus sich dann (unter der Annahme, daß die oben angegebene Reihe existiert) analog zu Satz 6.5.4 ∀i ∈ N0 : ai = ϕ(f, fi ) ergibt. Umgekehrt l¨ aßt sich dann beweisen, daß jede auf diese Weise gebildete Reihe die Summe f (x) hat. Beim Beweis der Konvergenz der Reihe erweist sich die im n¨ achsten Satz angegebene Ungleichung als n¨ utzlich. Satz 6.5.5 (Besselsche11 Ungleichung) Seien e1 , . . . , em orthonormierte Vektoren eines VRs V mit Skalarprodukt ϕ. Dann gilt: Pm 2 2 (a) ∀a ∈ V : i=1 |ϕ(a, ei )| ≤ aϕ (b) ∀a ∈ V ∀ν ∈ {1, 2, . . . , m} : eν ⊥ a −
Pm
i=1
ϕ(a, ei ) · ei .
228 Beweis.
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe) Sei a′ := a −
(a) folgt dann aus:
m X i=1
ϕ(a, ei ) · ei .
0 ≤ a′ 2ϕ = ϕ(a′ , a′ )
P = ϕ(a, a) − m i=1 ϕ(a, ei ) · ϕ(a, ei ) P Pm 2 − i=1 ϕ(a, ei ) · ϕ(ei , a) + m i=1 |ϕ(a, ei )| | {z } ϕ(a, ei ) P 2 = ϕ(a, a) − m i=1 |ϕ(a, ei )| .
(b) pr¨ uft man wie folgt nach: Pm P ϕ(a − m i=1 ϕ(a, ei ) · ei , eν ) = ϕ(a, eν ) − i=1 ϕ(a, ei ) · ϕ(ei , eν ) | {z } = δiν = ϕ(a, eν ) − ϕ(a, eν ) = 0. Satz 6.5.6 (Parsevalsche Gleichung12 ) Seien K V ein VR mit Skalarprodukt ϕ und e1 , . . . , em ∈ V orthonormiert. Dann gilt: [{e1 , . . . , em }] = V ⇐⇒ ∀a ∈ V : a2ϕ =
m X i=1
|ϕ(a, ei )|2 .
Beweis. =⇒“: Falls [{e1 , . . . , em }] = V ist, gibt es f¨ ur jedes a ∈ V gewisse ” a1 , . . . , am ∈ K mit a = a1 · e 1 + . . . + am · e m . Damit erhalten wir unter Verwendung von Satz 6.5.4: ϕ(a, a) = |a1 |2 + . . . + |am |2 =
m X i=1
|ϕ(a, ei )|2 = a2ϕ .
P 2 ⇐=“: Angenommen, die Parsevalsche Gleichung a2 = m i=1 |ϕ(a, ei )| gilt, jedoch ” bilden e1 , . . . , em keine Basis von V . Dann existiert ein Vektor b ∈ V \[{e1 , . . . , em }], onnen (siehe der = o ist und f¨ ur den wir o.B.d.A. b ⊥ e1 , . . . , b ⊥ em annehmen k¨ Satz 6.5.2). Hieraus folgt dann nach Satz 6.5.5 und wegen bϕ > 0: 0=
m X i=1
|ϕ(b, ei )|2 < b2ϕ ,
im Widerspruch zu der Voraussetzung in ⇐=“. ” Definition Seien M und N Teilmengen eines VRs V mit Skalarprodukt ϕ. Man sagt dann: M , N sind (bez. ϕ) orthogonal zueinander (im Zeichen M ⊥ N ) :⇐⇒ ∀a ∈ M ∀b ∈ N : a ⊥ b.
11 12
Friedrich Wilhelm Bessel (1784–1846), deutscher Mathematiker. Marc-Antoine Parseval des Chˆenes (1755–1836) publizierte Ende des 18. Jahrhunderts f¨ ur ein spezielles Skalarprodukt die im Satz angegebene Gleichung.
6.5 Orthogonalit¨ at
229
Satz 6.5.7 Sei V ein Vektorraum mit Skalarprodukt ϕ. Dann gilt f¨ ur beliebige M, N ⊆ V : M ⊥ N ⇐⇒ [M ] ⊥ [N ]. Beweis. ⇐=“ ist trivial. ” =⇒“: Falls {o} ∈ {M, N } oder ∅ ∈ {M, N }, gilt offenbar [M ] ⊥ [N ]. Also k¨ onnen ” wir nachfolgend {∅, {o}} ∩ {M, N } = ∅ annehmen. Seien a ∈ [M ] und b ∈ [N ]. Dann sind a bzw. b als LK gewisser Vektoren a1 , . . . , ar ∈ M bzw. b1 , . . . , bs ∈ N darstellbar: a = λ1 · a 1 + . . . + λr · a r ,
b = µ1 · b1 + . . . + µs · bs .
Man rechnet nun leicht ϕ(a, b) = 0 nach, da nach Voraussetzung ϕ(ai , bj ) = 0 f¨ ur alle i ∈ {1, . . . , r} und j ∈ {1, . . . , s} gilt, woraus a ⊥ b folgt. Definition Menge
F¨ ur Teilmengen M eines VRs V mit Skalarprodukt ϕ nennen wir die M ⊥ := {a ∈ V | {a} ⊥ M }
orthogonales Komplement von M (bez. V ).
Satz 6.5.8 F¨ ur jeden VR V mit Skalarprodukt und jede Menge M ⊆ V gilt: (a) M ⊥ ist UVR von V ; (b) M ⊥ = [M ]⊥ . Beweis. (a): Wegen M ⊥ ⊥ M folgt aus Satz 6.5.7: [M ⊥ ] ⊥ [M ]. Speziell haben wir damit auch [M ⊥ ] ⊥ M , woraus sich nach Definition [M ⊥ ] ⊆ M ⊥ ergibt. Dies ist jedoch nur m¨ oglich f¨ ur [M ⊥ ] = M ⊥ . (b): Nach Definition des orthogonalen Komplements haben wir [M ]⊥ ⊆ M ⊥ . Außerdem gilt nach Satz 6.5.7: M ⊥ M ⊥ =⇒ [M ] ⊥ [M ⊥ ] (= M ⊥ (nach (a)) =⇒ M ⊥ ⊆ [M ]⊥ . Folglich ist M ⊥ = [M ]⊥ . Definitionen Seien U ein UVR des VRs V mit Skalarprodukt und a ∈ V . b ∈ U heißt orthogonale Projektion von a in U :⇐⇒ ∃c ∈ V : c ∈ U ⊥ ∧ a = b+c.
> 6
a
b
-p
c
U
Der Vektor c wird dabei Lot genannt. Satz 6.5.9 Wenn eine orthogonale Projektion b eines Vektor a ∈ V in einem UVR U von V existiert, so ist sie eindeutig bestimmt. Beweis. Angenommen, es gibt zwei verschiedene orthogonale Projektionen b und b′ von a in U : a = b + c und a = b′ + c′ ,
230
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
wobei c, c′ ∈ U ⊥ . Hieraus und aus Satz 6.5.8, (a) folgt: o = (b − b′ ) + (c − c′ ) . | {z } | {z } ∈U
∈U ⊥
Bildet man nun das Skalarprodukt ϕ(o, o), das bekanntlich = 0 ist, und setzt o = alt man: 0 = ϕ(b − b′ , b − b′ ) + ϕ(c − c′ , c − c′ ), woraus (wegen b − b′ + c − c′ , so erh¨ der positiven Definitheit von ϕ) b − b′ = o und c − c′ = o folgt, im Widerspruch zur Annahme. Satz 6.5.10 Seien V ein VR mit Skalarprodukt, U ein UVR von V und a ∈ V . Existiert dann die orthogonale Projektion a′ von a in U , so gilt f¨ ur alle b ∈ U : a − a′ ϕ ≤ a − bϕ
und
a − a′ ϕ = a − bϕ ⇐⇒ a′ = b.
(Mit anderen Worten: a′ ist eine beste Approximation“ (d.h., ” a − a′ ϕ = min a − xϕ ) x∈U
von a durch ein Element aus U , die außerdem eindeutig bestimmt ist.) Beweis. Bezeichne b ein beliebiges Element von U und sei a′′ := a−a′ . Da a′′ ⊥ U , haben wir a − b2ϕ = a − a′ + a′ − b2ϕ = a′′ + a′ − b2ϕ = ϕ(a′′ + (a′ − b), a′′ + (a′ − b))
= a′′ 2ϕ + ϕ(a′′ , a′ − b) + ϕ(a′ − b, a′′ ) +a′ − b2ϕ {z } | {z } | =0
=
a′′ 2ϕ
= a −
′
+ a −
a′ 2ϕ
=0
b2ϕ
+ a′ − b2ϕ ,
woraus sich unmittelbar unsere Behauptungen ergeben. Die orthogonale Projektion eines Vektors ∈ V in einen UVR von V braucht nicht zu existieren. Nur wenn U endliche Dimension besitzt, kann ihre Existenz allgemein nachgewiesen werden: Satz 6.5.11 Seien V ein VR mit Skalarprodukt, U ein endlich-dimensionaler UVR ur jeden Vektor a aus V von V und {e1 , . . . , et } eine orthonormierte Basis von U . F¨ aßt: existiert dann die orthogonale Projektion aU in U , die sich wie folgt berechnen l¨ aU =
t X i=1
ϕ(a, ei ) · ei .
Beweis. F¨ ur a ∈ V w¨ ahlen wir aU wie oben angegeben. Offenbar geh¨ ort dann aU zu U und nach Satz 6.5.5, (b) haben wir f¨ ur beliebige j ∈ {1, 2, . . . , t}: a − aU = a −
t X i=1
ϕ(a, ei ) · ei ⊥ ej ,
womit c := a − aU ∈ U ⊥ . Folglich gilt a = aU + c und aU ist eine orthogonale Projektion.
6.6 Das Vektorprodukt
231
Satz 6.5.12 Sei U ein endlich-dimensionaler UVR des VRs V mit Skalarprodukt. Dann gilt (U ⊥ )⊥ = U. Besitzt außerdem V ebenfalls endliche Dimension, so gilt ferner dim U ⊥ = dim V − dim U und
U ⊕ U ⊥ = V.
Beweis. Offenbar gilt U ⊆ (U ⊥ )⊥ . Zwecks Nachweis von (U ⊥ )⊥ ⊆ U sei x ∈ (U ⊥ )⊥ . Wegen dim U < ℵ0 findet man nach Satz 6.5.11 in U eine orthogonale Projektion xU und x − xU geh¨ ort zu U ⊥ . Wegen x ∈ (U ⊥ )⊥ bzw. xU ∈ U gilt folglich: ϕ(x − xU , x) = 0
und
ϕ(x − xU , xU ) = 0.
Damit erhalten wir x − xU 2ϕ = ϕ(x − xU , x) − ϕ(x − xU , xU ) = 0, woraus x = xU und damit x ∈ U folgt. Also gilt (U ⊥ )⊥ = U . Sei jetzt dim V = n ∈ N. Nach unseren obigen S¨ atzen u onnen ¨ ber VRe und Basen, k¨ wir die Existenz gewisser orthonormierter Vektoren e1 , e2 , . . . , et , et+1 , . . . , en mit U = [{e1 , . . . , et }]
und
V = [{e1 , . . . , et , . . . , en }]
annehmen. U ⊥ besteht dann offenbar aus allen Vektoren a ∈ V mit aU = o. Nach Pt Satz 6.5.11 haben wir dann o = i=1 ϕ(a, ei ) · ei . Da die Vektoren e1 , . . . , et l.u. sind, folgt hieraus ϕ(a, ei ) = 0 f¨ ur alle i ∈ {1, . . . , t}. Also gilt a ∈ [{et+1 , . . . , en }] und damit dim U ⊥ = n − t = dim V − dim U . Da offenbar U ∩ U ⊥ = {o} ist, folgt mit Hilfe der S¨ atze 4.6.1, (b) und 4.6.2 hieraus dann auch U ⊕ U ⊥ = V .
6.6 Das Vektorprodukt Nachfolgend soll eine zweistellige Operation (Vektorprodukt) − → − → − → × : V3 × V3 → V3 , (a, b) → a × b definiert werden, die eine gute Erg¨ anzung zu unserem anschaulichen Skalarprodukt bildet, wie anschließende Anwendungsbeispiele zeigen werden. Nach diesen Anwendungen soll kurz erl¨ autert werden, wie man diese Definition f¨ ur n-dimensionale VRe verallgemeinern kann. Es sei noch erw¨ahnt, daß es neben den von uns hier behandelten geometrischen Anwendungen viele physikalische Anwendungen (z.B. Drehimpuls eines Massenpunktes, Geschwindigkeit der Massenpunkte eines rotierenden K¨ orpers, Zentrifugalkraft u.a.) des Vektorprodukts gibt (siehe dazu z.B. [Hai 85], S. 180, [B¨oh 81-2], S. 206, [Dal-E 91], S. 714). In Vorbereitung auf die Definition des Vektorprodukts × ben¨otigen wir die folgenden
232
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
− → Definitionen Vektoren a, b, c ∈ V3 wollen wir in dieser Reihenfolge positiv orientiert (oder ein Rechtssystem) nennen, wenn sie folgende zwei Bedingungen erf¨ ullen: − → (Rs1) (a, b, c) ist eine Basis von V3 und (Rs2) Repr¨ asentanten von a, b, c sind wie Daumen, Zeigefinger, Mittelfinger der rechten Hand angeordnet oder (auf die Repr¨ asentanten bezogen): aus der Richtung, in der c zeigt, gesehen, ist die k¨ urzeste Drehung, die a in b u uhrt, eine Drehung entgegen dem Uhrzeigersinn; ¨ berf¨ bzw. wenn c nach oben, b nach hinten zeigen, dann zeigt a nach rechts: c b 1 -a Eine weitere M¨ oglichkeit der Charakterisierung eines Rechtssystems, die nicht die Anschauung bem¨ uht, gibt Satz 6.6.3, (d) an. Diesem Satz kann man auch eine Begr¨ undung f¨ ur die Bezeichnung positiv orientiert entnehmen. a, b, c sollen in dieser Reihenfolge negativ orientiert (bzw. ein Linkssy− → stem) heißen, wenn sie eine Basis von V3 bilden, jedoch nicht positiv orientiert sind. Seien ab jetzt die Vektoren i, j, k nicht nur orthonormiert, sondern auch positiv orientiert. − → Definition Seien a, b ∈ V3 . Unter dem Vektorprodukt von a mit b verstehen wir den Vektor o, falls a, b l.a. , a × b := c sonst, wobei (Vp1) |c| := |a| · |b| · sin ∠(a, b), (Vp2) a ⊥ c und b ⊥ c sowie (Vp3) a, b, c in dieser Reihenfolge positiv orientiert sind. Die Bedingung (Vp1) bedeutet anschaulich, daß der Betrag von c gleich der Maßzahl des Fl¨ acheninhalt des von a, b aufgespannten Parallelogramms ist:
6.6 Das Vektorprodukt
|b| · sin ϕ ϕ q a b
233
-
Beispiele (1.) Da wir i, j, k als orthonormiertes Rechtssystem angenommen haben, pr¨ uft man leicht nach, daß gilt: i × j = k, i × k = −j, j × k = i, . . . , was man sich z.B. wie folgt merken kann:
Außerdem gilt offensichtlich: i × i = j × j = k × k = o.
− → (2.) Seien c, x ∈ V3 , c orthogonal zu x, |c| = 1 und E eine zu c orthogonale Ebene. Dann erh¨ alt man einen Repr¨ asentanten von y := x × c aus einem Repr¨ asentanten von x in E durch Drehung um 90◦ wie nachfolgend angegeben:
− → (3.) Sind a, b ∈ V3 , b = o und bezeichnet a′′ die Normalkomponente von a bez. b, so haben wir 6 a a′′ ′′ q a × b = a × b, -b
234
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
da • |a × b| = |b| · |a| · sin ∠(a, b) = |b| · |a′′ | = |a′′ | · |b| · sin ∠(a′′ , b) = |a′′ × b| • a × b " a′′ × b und • a × b, a′′ × b gleichorientiert sind.
Einige Eigenschaften des Vektorprodukts faßt der folgende Satz zusammen. − → Satz 6.6.1 Seien a, b, c ∈ V3 und λ ∈ R. Dann gilt: (a) a × b = −(b × a); (b) λ · (a × b) = (λ · a) × b = a × (λ · b); (c) (a + b) × c = a × c + b × c ( Distributivgesetz“). ” (d) Das Assoziativgesetz gilt f¨ ur das Vektorprodukt i.allg. nicht! Beweis. (a) und (b) ergeben sich unmittelbar aus der Definition des Vektorprodukts. (c): I) Wir beweisen das Distributivgesetz zun¨ achst f¨ ur einen Spezialfall: c ⊥ a, c ⊥ b, |c| = 1. ¨ Seien x := a + b und E eine Ebene senkrecht zu c. Nach unseren Uberlegungen aus Beispiel (2.) von oben entstehen dann Repr¨asentanten von x × c, a × c bzw. b × c aus in E liegenden Repr¨asentanten von x, a bzw. b durch Drehung um 90◦ wie folgt:
Offenbar gilt damit x × c = a × c + b × c.
6.6 Das Vektorprodukt
235
II) Allgemein erhalten wir jetzt hieraus und unter Verwendung von (b) sowie Beispiel (3.) die Behauptung (c): (3.)
(a + b) × c = (a + b)′′ × c
= (a′′ + b′′ ) × c
= (a′′ + b′′ ) × (|c| · co )
(co := (1/|c|) · c)
(b)
= |c| · ((a′′ + b′′ ) × co ) I) = |c| · (a′′ × co + b′′ × co )
(3.)
= |c| · (a × co + b × co )
= |c| · (a × co ) + |c| · (b × co ) (b)
= a × c + b × c.
¨ A.6.8. (d): UA Der n¨ achste Satz liefert eine effektive Methode der Berechnung von Vektorprodukten. − → Satz 6.6.2 Seien B := (i, j, k) und a, b ∈ V3 , wobei a/B = (a1 , a2 , a3 )T und b/B = (b1 , b2 , b3 )T . Dann gilt: a×b
i j k = a1 a2 a3 b1 b2 b3 := (a2 · b3 − a3 · b2 ) · i + (a3 · b1 − a1 · b3 ) · j + (a1 · b2 − a2 · b1 ) · k.
Beweis.
Nach Satz 6.6.1 und Beispiel (1.) haben wir
a × b = (a1 · i + a2 · j + a3 · k) × (b1 · i + b2 · j + b3 · k) = a1 b1 · i × j +a1 b3 · i × k+ i × i +a1 b2 · o
k
−j
a2 b1 · j × i +a2 b2 · j × j +a2 b3 · j × k + −k
o
j
−i
i
a3 b1 · k × i +a3 b2 · k × j +a3 b3 · k × k o
= (a2 · b3 − a3 · b2 ) · i + (a3 · b1 − a1 · b3 ) · j + (a1 · b2 − a2 · b1 ) · k.
236
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
Einige geometrische Anwendungen des Vektorprodukts
(1.) Da |a × b| die Maßzahl des Fl¨ acheninhaltes des von a, b aufgespannten Parallelogramms ist, lassen sich mit Hilfe des Vektorprodukts die Fl¨acheninhalte von aus Dreiecken zusammengesetzten Fl¨achen leicht berechnen, wenn man die Koordinaten der Eckpunkte vorgegeben hat. Als Beispiel wollen wir den Fl¨ acheninhalt F des Dreiecks ∆(P1 , P2 , P3 ) berechnen, wobei bez. des Koordinatensystems S := (A; i, j, k) gilt: P1 = (1; 0, 1, 3)T , P2 = (1; 1, 0, 0)T , P3 = (1; 1, 2, −4)T . P3 1 a A XXX P1 A X AA z b XXX P2
Indem wir a := P3 −P1 = (0; 1, 1, −7)T und b := P2 −P1 = (0; 1, −1, −3)T bilden, erhalten wir aus i j k a × b = 1 1 −7 = −10 · i − 4 · j − 2 · k 1 −1 −3 √ √ den Fl¨ acheninhalt F = (1/2) · |a × b| = (1/2) · 100 + 16 + 4 = 30. (2.) Sei E : X = P + λ·a + µ·b eine Ebene aus R3 . Einen auf E senkrecht stehenden Vektor (einen sogenannten Normalenvektor) von E, den man z.B. f¨ ur die Hessesche Form von E ben¨ otigt, erh¨alt man durch a × b. (3.) Da f¨ ur eine Gerade g : X =P +λ·a ¨ aus R3 offenbar die Aquivalenz X ∈ g ⇐⇒ (X − P ) × a = o gilt, gibt es auch folgende Charakterisierung von g: g : (X − P ) × a = o , die man Pl¨ uckersche Form bzw., falls |a| = 1, Pl¨ uckersche Normalform von g nennt13 . (4.) Mit Hilfe der Pl¨ uckerschen Normalform kann man sich nun folgende Formel zur Berechnung des Abstandes ℓ des Punktes Q von der Geraden g : (X − P ) × a = o des R3 merken: 13
Julius Pl¨ ucker (1801–1868), deutscher Mathematiker.
6.6 Das Vektorprodukt
237
ℓ = (1/|a|) · |(Q − P ) × a| , deren Richtigkeit man sich anhand der Skizze Q 3 Q−P ℓ = |Q − P | sin ϕ ϕ q a P
g
und der sich hieraus ergebenen Gleichung ℓ = (1/|a|) · |a| · |Q − P | · sin ϕ = (1/|a|) · |(Q − P ) × a| u ¨berlegen kann. Der n¨ achste Satz faßt einige weitere recht brauchbare Eigenschaften bzw. Anwendungen des Vektorprodukts zusammen. − → Satz 6.6.3 Bez¨ uglich der Basis B := (i, j, k) seien die Vektoren a, b, c ∈ V3 gegeben durch a/B = (a1 , a2 , a3 )T , b/B = (b1 , b2 , b3 )T , c/B = (c1 , c2 , c3 )T . Dann gilt: (a) a1 a2 a3 (a × b) · c = b1 b2 b3 c1 c2 c3
( Spatprodukt“); ”
(b) |(a × b) · c| ist gleich der Maßzahl des Volumens des von a, b, c aufgespannten Spats (bzw. Parallelepipeds): 7 c b a
-
− → (c) a, b, c ist Basis von V3 ⇐⇒ (a × b) · c = 0; (d) a, b, c sind positiv orientiert ⇐⇒ (a × b) · c > 0, a, b, c sind negativ orientiert ⇐⇒ (a × b) · c < 0. Beweis. (a) rechnet man leicht mit Hilfe von Satz 6.6.2 und Satz 6.1.1, (g) ¨ nach (UA). (b): Seien x := a × b und c′ die Parallelkomponente von c bez. x:
238
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe)
c = a × b 6 q 6 c b c′ q q a
-
Dann gilt (a × b) · c = x · c′ = |x| · |c′ | · cos ∠(x, c′ ). Nach Definition des Vektorprodukts ist |x| gleich dem Fl¨ acheninhalt der Grundfl¨ache des Spates und |c′ | seine H¨ ohe. Wegen x"c′ haben wir ferner cos ∠(x, c′ ) ∈ {1, −1} (in der obigen Skizze gilt cos ∠(x, c′ ) = 1; im Fall cos ∠(x, c′ ) = −1 zeigt c nach unten). Somit ist der Betrag des Spatprodukts gleich dem Produkt aus Grundfl¨ache und H¨ ohe des Spats. ¨ (c): a, b, c bilden nach unseren Uberlegungen aus Abschnitt 4.4 genau dann − → eine Basis von V3 , wenn sie l.u. sind. Dies ist aber nach Satz 4.7.1, (b) (S. 181) genau dann der Fall, wenn rg(a/B , b/B , c/B ) = 3, woraus sich unsere Behauptung ergibt. ¨ (d) ist eine Folgerung aus unseren Uberlegungen zur Begr¨ undung von (b). Weitere Eigenschaften des Vektorprodukts entnehme man z.B. [Bre-B 66], S. 237–246. Das Vektorprodukt l¨ aßt sich – wie nachfolgend gezeigt werden soll – auch f¨ ur n-diuhren. Wir mensionale VRe u ¨ber R und n − 1 vorgegebenen Vektoren aus Vn einf¨ ¨ beginnen mit einigen Uberlegungen, die es uns gestatten werden, das Vektorprodukt − → aren. Diese Definition ist dann f¨ ur V3 ohne Anleihen“ bei der Anschauung zu erkl¨ ” die Grundlage einer Verallgemeinerung. Zun¨ achst die Festlegung einer Orientierung von Basen in R Vn . Definitionen Seien B und B ′ Basen des VRs R Vn und bezeichne M(B, B ′ ) die ¨ Ubergangsmatrix von B zu B ′ (siehe Satz 4.7.2). Dann nennen wir B, B ′ gleichorientiert (im Zeichen (B, B ′ ) ∈ Ror ) :⇐⇒ |M(B, B ′ )| > 0. ¨ u ¨ Als UA ¨ berlege man sich, daß die auf diese Weise definierte Relation Ror eine Aquivalenzrelation auf der Menge aller Basen von R Vn bildet. Folglich wird die Menge ¨ dieser Basen durch Ror in zwei Aquivalenzklassen zerlegt, die Orientierungen von V genannt werden: n R
# B1
"
B1′
B2
B2′
|M(B1 , B1′ )| > 0 |M(B2 , B2′ )| < 0
!
Zur Festlegung einer bestimmten Orientierung hat man einfach eine der beiden Klassen auszuzeichnen, etwa durch Wahl einer repr¨ asentierenden Basis (z.B. der Standardbasis).
6.6 Das Vektorprodukt
239
F¨ ur den VR R Rn×1 heißt dann z.B. jede Basis B ′ Rechtssystem, wenn sie in dersel¨ ben Aquivalenzklasse wie die Standardbasis liegt, was nichts anderes bedeutet, als daß die Determinante, deren Spalten die Elemente von B ′ sind, einen Wert > 0 hat. Ist in V eine Orientierung ausgezeichnet, so nennt man V einen orientierten VR. − → Der Vorbereitung einer zweiten Definition eines Vektorproduktes f¨ ur V3 dienen die − → nachfolgenden Bemerkungen, in denen ϕ stets das f¨ ur V3 im Abschnitt 6.1 definierte Skalarprodukt bezeichnet. •
Offenbar gilt: ϕ(a, a) ϕ(a, b) ϕ(b, a) ϕ(b, b)
= ϕ(a, a) · ϕ(b, b) − |ϕ(a, b)|2
= |a|2 · |b|2 − |a|2 · |b|2 · cos2 ∠(a, b) = |a|2 · |b|2 · (1 − cos2 ∠(a, b)) {z } | sin2 ∠(a, b) = |a × b|2 .
•
− → Falls a, b ∈ V3 l.a. sind, haben wir
ϕ(a, a) ϕ(a, b) = 0. ϕ(b, a) ϕ(b, b) − → ange 1 und der Sind a, b ∈ V3 l.u., so gibt es genau zwei Vektoren e mit der L¨ Eigenschaft ϕ(a, e) = ϕ(b, e) = 0. Definiert man ( 1, falls |a/B , b/B , e/B | ≥ 0, sign(|a/B , b/B , e/B |) := −1, falls |a/B , b/B , e/B | < 0, so gilt f¨ ur jeden dieser Vektoren e: sign(|a/B , b/B , e/B |) · e = sign(|a/B , b/B , −e/B |) · (−e). Aus diesen Bemerkungen folgt nun, daß folgende Definition eine Abbildung von − → → − → − V3 × V3 in V3 liefert, die im Fall B ∈ [(i, j, k)]Ror nur eine andere Beschreibung des urspr¨ unglichen Vektorproduktes ist. − → Definition Seien a, b ∈ V3 und e ∈ {a, b}⊥ \{o}. Weiter bezeichne B eine Basis − → von V3 . Dann sei das Vektorprodukt a × b von a und b wie folgt definiert: s ϕ(a, a) ϕ(a, b) 1 ·e a × b := sign(|a/B , b/B , e/B |) · · ϕ(b, a) ϕ(b, b) |e| Im Gegensatz zur urspr¨ unglichen Definition des Vektorproduktes l¨ aßt sich diese neue Beschreibung f¨ ur (n + 1)-dimensionale Vektorr¨ aume u ¨ ber R verallgemeinern: Definition Seien a1 , . . . , an Vektoren aus einem (n + 1)-dimensionalen Vektorraum u ¨ ber R und bezeichne e einen Vektor aus {a1 , . . . , an }⊥ \{o}. Dann ist das Vektorprodukt der Vektoren a1 , . . . , an (n ≥ 2) definiert durch
240
6 Vektorr¨ aume mit Skalarprodukt (unit¨ are und euklidische VRe) v˛ ˛ u˛ u˛ ϕ(a1 , a1 ) . . . ϕ(a1 , an ) ˛˛ u˛ 1 ·e a1 × a2 × . . . × an := sign(|a1 , . . . , an−1 , e|) · t˛ . . . . . . . . . . . . . . . . . . . . . . ˛˛ · e ϕ ˛ ϕ(an , a1 ) . . . ϕ(an , an ) ˛
¨ u Als UA ¨ berlege man sich analog zu oben, daß obige Definition sinnvoll ist, d.h., wirklich eine Abbildung liefert.
7 Euklidische und unit¨ are affine Punktr¨ aume
In diesem Kapitel soll kurz gezeigt werden wie man einige Begriffe und S¨atze aus der Anschauungsebene bzw. aus dem Anschauungsraum, die mit dem Skalarprodukt zusammenh¨ angen, auf n-dimensionale Punktr¨aume u ¨ bertragen kann. Definition Sei Rn ein n-dimensionaler affiner Punktraum u ¨ ber K ∈ {R, C}. ar), wenn der zu Rn geh¨orende VR Dann heißt Rn euklidisch (bzw. unit¨ euklidisch (bzw. unit¨ ar) ist. Nachfolgend bezeichnet Rn stets einen euklidischen (bzw. unit¨aren) Punktraum, f¨ ur dessen zugeh¨ origen VR das Skalarprodukt ϕ erkl¨art ist.
7.1 Abstandsmessung Definitionen
Seien P, Q ∈ Rn . Die Maßzahl − −→ d(P, Q) := "P Q"ϕ (= "Q − P "ϕ ) . ϕ(Q − P, Q − P ) =
heißt Abstand von P , Q. Als Abstand d(M, N ) von Punktmengen M, N ⊆ Rn legen wir fest: d(M, N ) :=
min
P ∈M, Q∈N
d(P, Q).
Beispiel W¨ ahlt man im zu Rn geh¨ orenden VR Vn eine orthonormierte Basis B und ein A ∈ Rn , so gilt bez. des Koordinatensystems S := (A; B), falls P/S = (1; p1 , . . . , pn )T und Q/S = (1; q1 , . . . , qn )T : . . d(P, Q) = ϕ(Q − P, Q − P ) = |q1 − p1 |2 + |q2 − p2 |2 + . . . + |qn − pn |2 . Eigenschaften der Funktion d, die leichte Folgerungen aus den Normaxiomen sind, faßt der nachfolgende Satz zusammen.
242
7 Euklidische und unit¨ are affine Punktr¨ aume
Satz 7.1.1 (mit Definition) F¨ ur beliebige P, Q, R ∈ Rn gilt: (a) (b) (c) (d)
d(P, Q) = d(Q, P ); d(P, Q) ≥ 0; d(P, Q) = 0 ⇐⇒ P = Q; d(P, Q) ≤ d(P, R) + d(R, Q).
D.h., jeder euklidische (bzw. unit¨are) Raum Rn ist ein sogenannter metrischer Raum mit der Metrik d : Rn × Rn → R, (P, Q) → "Q − P "ϕ . Satz 7.1.2 Seien E = P + W eine k-Ebene des Rn und Q ∈ Rn . Dann gilt: d(Q, E) = "a −
k i=1
ϕ(a, ei ) · ei "ϕ ,
wobei a := Q − P und e1 , . . . , ek eine orthonormierte Basis von W bezeichnet. Beweis. Sei X = P + x ein beliebiger Punkt aus E und bezeichne a′ die orthogonale Projektion von a in W . Dann gilt nach Satz 6.5.10 (S. 230): d(X, Q) = "P + a − (P + x)"ϕ = "a − x"ϕ ≥ "a − a′ "ϕ . Folglich haben wir d(E, Q) = "a − a′ "ϕ . Unsere Behauptung folgt dann aus der Formel zur Berechnung von a′ aus Satz 6.5.11. Als Folgerung aus obigem Satz erh¨ alt man u ¨ brigens unsere Abstandsformel von S. 206, die die Parallel- und Normalkomponente eines Vektors a bez. eines Vektors b verwendet. Zwecks Verallgemeinerung von Satz 7.1.2 und unserer Methoden zur Berechnung des Abstandes zweier windschiefer Geraden in R3 zun¨achst die Definition Seien E = Q + W und E ′ = Q′ + W ′ Unterpunktr¨aume des Rn . −−→ a ∈ Vn heißt Lot von E und E ′ :⇐⇒ (∃P ∈ E ∃P ′ ∈ E ′ : a = P P ′ ∧ a ⊥ W ∧ a ⊥ W ′ ). Satz 7.1.3 F¨ ur beliebige disjunkte Unterpunktr¨aume E, E ′ des Rn gilt: (a) Es existiert genau ein Lot a von E und E ′ ; (b) d(E, E ′ ) = "a"ϕ ;
−−→ (c) (b = XX ′ ∧ X ∈ E ∧ X ′ ∈ E ′ ∧ "b"ϕ = d(E, E ′ )) =⇒ b ist Lot von E und E ′ . Beweis. (a): Zwecks Nachweises der Existenz eines Lotes u ¨ berlegen wir uns ′ von Vn : zun¨ achst folgende zwei Aussagen u ber Teilmengen W , W ¨
7.1 Abstandsmessung
243
(i) (a ⊥ W ∧ a ⊥ W ′ ) ⇐⇒ a ⊥ (W + W ′ = [W ∪ W ′ ]). ( ⇐=“ ist trivial. ” =⇒“: Sei b ∈ W + W ′ . Dann existieren b1 ∈ W und b2 ∈ W ′ mit ” b = b1 + b2 . Bildet man nun ϕ(a, b1 + b2 ), so erh¨alt man die Behauptung.) (ii) Vn = (W + W ′ ) ⊕ (W + W ′ )⊥ . (Folgt aus Satz 6.5.12.) −−→ Wir wollen nun zwei Punkte P und P ′ mit der Eigenschaft P P ′ ⊥ E und −−→′ P P ⊥ E ′ ermitteln. Dazu betrachten wir zwei beliebige Punkte X ∈ E und X ′ ∈ E′. !! E ! P ! !qq! ! D ``` q !! D ! `` ` ! ′ q ! `` X!! ``` D q `` Dq ` ! X ``` ′ !! P′ E Dann gilt nach (ii) −−→′ XX = x1 + x2 = (y + y′ ) + x2 , wobei x1 ∈ W + W ′ , y ∈ W , y′ ∈ W ′ und x2 ∈ (W + W ′ )⊥ . −−→ −−→ W¨ ahlt man P := X + y und P ′ := X ′ + (−y′ ), so erh¨alt man P P ′ = P X + → −−→′ −−− XX + X ′ P ′ = (X − P ) + (X ′ − X) + (P ′ − X ′ ) = −y + y + y′ + x2 − y′ = x2 ∈ (W + W ′ )⊥ . Wegen (i) folgt hieraus, daß die so definierten P und P ′ das Gew¨ unschte leisten. Also gibt es ein Lot. Die Eindeutigkeit dieses Lotes kann man sich wie folgt u ¨ berlegen: −−→ −−→ Angenommen, a = P P ′ und b = QQ′ sind Lote von E und E ′ , wobei P, Q ∈ E −−→ −− → −−→ −−−→ und P ′ , Q′ ∈ E ′ . Dann gilt P P ′ = P Q + QQ′ + Q′ P ′ bzw. −−→′ −−→′ −− → −−−→ P P − QQ = P Q + Q′ P ′ . ∈(W +W ′ )⊥
∈W +W ′
Folglich und unter Verwendung von (ii) haben wir dann: −−→′ −−→′ P P − QQ ∈ (W + W ′ )⊥ ∩ (W + W ′ ) = {o},
−−→ −−→ was P P ′ = QQ′ impliziert. (b): F¨ ur beliebige X ∈ E und X ′ ∈ E ′ und den oben bestimmten P und P ′ −−→ bzw. a := P P ′ gilt: −−→′ −−→ −−→′ −−′−→′ XX = XP + P P + P X und
244
7 Euklidische und unit¨ are affine Punktr¨ aume
−−→ −−→ −−−→ "XX ′"2ϕ = ϕ((XP + P ′ X ′ ) + ∈W +W ′
−−→′ P P
−−→ −−→ −−−→ , (XP + P ′ X ′ ) + P P ′ )
∈(W +W ′ )⊥
−−→ −−→ −−−→ = "XP + P ′ X ′ "2ϕ + "P P ′ "2ϕ −−→ ≥ "P P ′ "2ϕ .
Also ist (b) richtig. −−→ (c): Seien X ∈ E, X ′ ∈ E ′ , b := XX ′ und "b" = d(E, E ′ ). Wir haben zu zeigen, daß b ein Lot von E und E ′ ist. Nach den Rechnungen im Beweis von (b) haben wir: −−→ −−→ −−→ −−−→ "XX ′ "2ϕ = d(E, E ′ )2 = "XP + P ′ X ′ "2ϕ + "P P ′ "2ϕ , −−→ −−→ −−−→ woraus (wegen "P P ′ "ϕ = d(E, E ′ )) "XP + P ′ X ′ "ϕ = 0 und damit (nach −−−→ −−→ den Normaxiomen) XP = −P ′ X ′ folgt. Die letzte Gleichung liefert dann −−→′ −−→′ P P = XX , womit b Lot ist.
7.2 Winkel- und Volumenmessung in euklidischen Punktr¨ aumen Analog zu den Definitionen in der Anschauungsebene bzw. im Anschauungsraum (siehe S. 221) lassen sich unter Verwendung der f¨ ur euklidische Vektorr¨ aume erkl¨ arten Winkel zwischen Vektoren (siehe 6.4) Winkel zwischen je zwei Geraden, zwei Hyperebenen sowie Geraden und Hyperebenen definieren. Wir geben hier nur ein Beispiel an: Sind g = P + W und g ′ = P ′ + W ′ Geraden im Rn u ¨ ber R mit g ∩ g ′ = ∅ ′ ′ und a ∈ W \{o}, a ∈ W \{o} so gew¨ ahlt, daß 0 ≤ ∠(a, a′ ) ≤ π/2, versteht man unter dem Winkel der Geraden g, g ′ den (eindeutig bestimmten) Winkel ∠(a, a′ ). Zwecks Einf¨ uhrung einer Volumenmessung im Rn zun¨achst die Definition Seien P0 , P1 , . . . , Pk Punkte eines affinen Raumes Rn u ¨ ber R −−−→ −−−→ und P0 P1 , . . . , P0 Pk l.u. Dann heißt die Menge Sp(P0 , P1 , . . . , Pk ) := {X ∈ Rn | ∃λi ∈ R : X = P0 + k-Spat im Rn .
k
i=1
−−→ λi · P0 Pi ∧ (∀i : 0 ≤ λi ≤ 1)}
F¨ ur n = k = 3 stimmt diese Definition mit der eines Spates (bzw. Parallelepipeds) im R3 u ¨ berein:
7.3 Koordinatentransformationen in kartesischen Koordinatensystemen
7P P2 3 P0
245
- P1
In Verallgemeinerung der im Satz 6.6.3 (S. 237) angegebenen Volumenformel f¨ ur diesen Spat: a1 a2 a3 VSpat = b1 b2 b3 (= |a/B , b/B , c/B |) c1 c2 c3 −−−→ −−−→ −−−→ mit a := P0 P1 /B = (a1 , a2 , a3 )T , b := P0 P2 /B = (b1 , b2 , b3 )T , c := P0 P3 /B = (c1 , c2 , c3 )T und B := (i, j, k), die sich wegen ⎞ ⎛ T ⎞ ⎛ T a/B a · a aT · b aT · c ⎟ ⎜ bT ⎟ ⎜ ⎝ /B ⎠ · (a/B , b/B , c/B ) = ⎝ bT · a bT · b bT · c ⎠ cT/B cT · a cT · b cT · c und dem Determinantenmultiplikationssatz auch in der Form 2 3 3 ϕ(a, a) ϕ(a, b) ϕ(a, c) 3 |(a/B , b/B , c/B )| = 4 ϕ(b, a) ϕ(b, b) ϕ(b, c) ϕ(c, a) ϕ(c, b) ϕ(c, c)
mit ϕ(x, y) := xT · y f¨ ur x, y ∈ R3×1 aufschreiben l¨aßt, erhalten wir die Definition Bezeichne ϕ das Skalarprodukt des euklidischen Raumes Rn −−→ und seien P0 , . . . Pk ∈ Rn und ai := P0 Pi f¨ ur i = 1, . . . , k l.u. Dann heißt 2 3 3 ϕ(a1 , a1 ) ϕ(a1 , a2 ) . . . ϕ(a1 , an ) 3 3 ϕ(a2 , a1 ) ϕ(a2 , a2 ) . . . ϕ(a2 , an ) 3 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ϕ(an , a1 ) ϕ(an , a2 ) . . . ϕ(an , an )
das Volumen des Spats Sp(P0 , . . . , Pk ).
7.3 Koordinatentransformationen in kartesischen Koordinatensystemen Definition Ein Koordinatensystem S = (A; e1 , . . . , en ) des Rn heißt kartesisches Koordinatensystem, falls (e1 , . . . , en ) eine orthonormierte Basis des zu Rn geh¨ orenden VRs Vn ist.
246
7 Euklidische und unit¨ are affine Punktr¨ aume
Im Abschnitt 5.2 hatten wir uns bereits u ¨ berlegt, daß zwischen den Koordinaten X/S eines beliebigen Punktes X bez. des Koordinatensystems S := (A; B) und den Koordinaten X/S ′ des Punktes X bez. des Koordinatensystems S ′ := (A′ ; B ′ ) folgender Zusammenhang besteht:
X/S = A′/S + M(B, B ′ ) · X/S ′ . Wir wollen nun kl¨ aren, welche Eigenschaften die Matrix M(B, B ′ ) besitzt, ′ falls B und B orthonormiert sind. Dazu die Definition Seien A ∈ Rn×n und B ∈ Cn×n . Dann heißt • •
A orthogonal :⇐⇒ A−1 = AT ; B unit¨ ar :⇐⇒ B−1 = BT .
Satz 7.3.1 Seien A, A′ ∈ Rn×n und B, B′ ∈ Cn×n . Dann gilt:
(a1 )
A ist orthogonal
⇐⇒
A · AT = En ⇐⇒ AT · A = En
⇐⇒
die Zeilen (bzw. Spalten) von A sind bez. des Skalarproduktes ϕ(x, y) := xT · y orthonormiert.
(a2 ) B ist unit¨ar
⇐⇒
B · BT = En ⇐⇒ BT · B = En
⇐⇒ die Zeilen (bzw. Spalten) von B sind bez. des Skalarproduktes ϕ(x, y) := xT · y orthonormiert. (b1 ) A orthogonal =⇒ |A| ∈ {1, −1}; (b2 ) B unit¨ar =⇒ |B| ∈ {1, −1}; (c1 ) A, A′ orthogonal =⇒ A · A′ orthogonal; (c2 ) B, B′ unit¨ar =⇒ B · B′ unit¨ar. Beweis. Es gen¨ ugt, die obigen Behauptungen nur f¨ ur unit¨are Matrizen zu beweisen, da sich die Aussagen u ¨ ber orthogonale Matrizen hieraus als Spezialf¨ alle ergeben. (a2 ) folgt aus den Eigenschaften inverser Matrizen (siehe S. 137) und aus der Definition einer unit¨ aren Matrix. (b2 ) ergibt sich unter Verwendung von Satz 3.2.5 (S. 136), Satz 3.1.4 (S. 115) und Satz 2.3.1 (S. 83) aus |B·BT | = |B|·|BT | = |B|·|B| = | |B| |2 = |E| = 1.
7.3 Koordinatentransformationen in kartesischen Koordinatensystemen
247
(c3 ) erhalten wir unter Verwendung der bekannten Regel f¨ ur das Transponieren und des Bildens von konjugiert komplexen Zahlen aus: T
T
T
T
T
T
(B·B′ )·(B · B′ ) = (B·B′ )·(B′ ·B ) = B·(B′ ·B′ )·B = B·E·B = E. Als leichte Folgerung aus obigen Satz 7.3.1 und Satz 5.2.2 (S. 192) erhalten wir dann den Satz 7.3.2 Bezeichne S := (A; B) ein kartesisches Koordinatensystem des uber K ∈ {R, C}. Dann gilt f¨ ur ein beliebiges Koordinatensystem Rn ¨ S ′ := (A′ ; B ′ ): S ′ kartesisch ⇐⇒
Beweis.
(K = R ∧ M(B, B ′ ) orthogonal) (K = C ∧ M(B, B ′ ) unit¨ar).
∨
¨ UA.
Nachfolgend u ¨ berlegen wir uns noch einige Eigenschaften orthogonaler Matrizen. Wir beginnen mit Satz 7.3.3 Jede orthogonale (2, 2)-Matrix A ¨ uber R l¨aßt sich in der Form cos α − sin α ε · sin α ε · cos α darstellen, wobei ε ∈ {1, −1} und −π < α ≤ π gilt. Umgekehrt ist jede Matrix dieser Form eine orthogonale Matrix. Beweis.
Sei
a b A := c d eine orthogonale Matrix. Nach Definition einer orthogonalen Matrix haben wir dann 2 a + b2 ac + bd 1 0 T A·A = = . ac + bd c2 + d2 0 1 Also gilt a2 + b2 = c2 + d2 = 1 und a · c + b · d = 0. Im Fall a = 0 folgt hieraus offenbar 0 1 0 −1 0 1 0 −1 A∈ , , , 1 0 −1 0 −1 0 1 0
und die Behauptung ist leicht verifizierbar.
248
7 Euklidische und unit¨ are affine Punktr¨ aume
Analog u uft man die Richtigkeit der Behauptung f¨ ur b = 0. ¨ berpr¨ Wir k¨ onnen also nachfolgend a = 0 und b = 0 voraussetzen. Wegen a2 +b2 = 1 gibt es ein α ∈ (−π, π] mit a = cos α(= cos(−α)). Außerdem folgt aus b2 = 1 − a2 = sin2 α, daß b ∈ {− sin α, sin α}. Falls b = sin α ist, gilt f¨ ur α′ := −α: a = cos α′ und b = − sin α′ . Also existiert ein α ∈ (−π, π] mit a = cos α
und
b = − sin α.
Aus ac + bd = 0 erh¨ alt man nun die Gleichungen c/b = −d/a =: t, c = (−d/a) · b = t · b und d = (−c/b) · a = −t · a, woraus sich t ∈ {1, −1} mit Hilfe von c2 + d2 = 1 ergibt. Also hat die orthogonale Matrix A die behauptete Gestalt. Daß jede Matrix der Gestalt cos α − sin α ε · sin α ε · cos α mit ε ∈ {1, −1} und −π < α ≤ π orthogonal ist, rechnet man leicht nach. Geometrisch lassen sich α und ε aus Satz 7.3.3 z.B. auf folgende Weise deuten: Seien S := (A; b1 , b2 ) und S ′ := (A; b′1 , b′2 ) kartesische Koordinatensysteme der Ebene R2 . Nach Satz 5.2.2 (S. 192) gilt dann f¨ ur jedes X ∈ R2 : X/S = A/S + M(B, B ′ ) · X/S ′ . W¨ ahlt man nun B und B ′ wie in der Abbildung
b′2
AA K
b2 6 A ′ A * b1 Aα A Aα A b1
angegeben, so erh¨ alt man ′
M(B, B ) =
cos α − sin α sin α cos α
,
womit sich α (im Fall ε = 1) aus Satz 7.3.3 als Drehwinkel deuten l¨aßt, um ¨ uhrung in b′1 , b′2 gedreht werden den die Achsenrichtungen b1 , b2 bei der Uberf¨ m¨ ussen (im mathematisch positiven Drehsinn).
7.3 Koordinatentransformationen in kartesischen Koordinatensystemen
249
¨ Wird bei der Uberf¨ uhrung von B in B ′ nicht nur gedreht“ sondern (wie ” weiter unter angegeben) auch gespiegelt“, ” b2
b′2
so erh¨ alt man M(B, B ′ ) =
′ 6 −b2 α -b1 H α H HH j b′ H 1
cos α − sin α − sin α − cos α
,
und α ist im Fall ε = −1 als Winkel bei einer Drehspiegelung“ deutbar. ” Unmittelbar einzusehen ist, daß auch Matrizen der Gestalt
En;r,s (α) :=
wobei
1 0 .. .
0
s-te Spalte ? 0 ... ... ... ... 0 .. .. . . cos α − sin α 0 r-te Zeile .. . . .. = (eij )n,n , . . . 0 sin α cos α . . .. . . 0 0 ... 0 ... 1 ⎧ ⎪ ⎪ ⎪ ⎪ ⎨
1 cos α eij := − sin α ⎪ ⎪ sin α ⎪ ⎪ ⎩ 0
f¨ ur i = j und i ∈ / {r, s}, f¨ ur i = j ∈ {r, s}, f¨ ur (i, j) = (r, s), f¨ ur (i, j) = (s, r), sonst,
f¨ ur beliebige verschiedene r, s ∈ {1, . . . , n} orthogonal sind. Außerdem gilt: En;r,s (0) = En und
(En;r,s (α))−1 = En;r,s (α)T = En;r,s (−α).
250
7 Euklidische und unit¨ are affine Punktr¨ aume
Satz 7.3.4 Jede orthogonale (n, n)-Matrix A mit n ≥ 2 und |A| = 1 l¨aßt sich als Produkt von h¨ochstens n·(n−1)/2 Matrizen der Form En;r,s (α) darstellen. Beweis. Wir beweisen die Behauptung durch vollst¨andige Induktion u ¨ ber n ∈ N \ {1}. (I) F¨ ur n = 2 folgt der Satz 7.3.4 aus Satz 7.3.3. (II) Angenommen, die Behauptung ist f¨ ur alle orthogonalen Matrizen B des Typs (k, k) mit 2 ≤ k < n und |B| = 1 richtig. Ist dann A = (aij )n,n eine orthogonale Matrix mit |A| = 1, so bilden wir A′ := (a′ij )n,n = A · En;1,2 (−α1 ), wobei
a′11 = a11 · cos α1 − a12 sin α1 a′12 = a11 · sin α1 + a12 cos α1 .
und
Der Winkel α1 l¨aßt sich so bestimmen, daß a′12 = 0
und
a′11 ≥ 0
gilt. Bildet man nun A′′ := (a′′ij )n,n = A′ · En;1,3 (−α2 ), so haben wir
a′′11 = a′11 · cos α2 − a′13 sin α2 a′′13 = a′11 · sin α2 + a′13 cos α2 .
und
Der Winkel α2 ist dann wieder so bestimmbar, daß a′′13 = 0
und
a′′11 ≥ 0
ist. Die Fortsetzung dieses Verfahrens liefert nach n − 1 Schritten: A(n−1) := A · En;1,2 (−α1 ) · En;1,3 (−α2 ) · . . . · En;1,n (−αn−1 ). (n−1)
)n,n ist als Produkt orthogonaler Matrizen mit Die Matrix A(n−1) =: (dij der Determinante 1 wieder eine orthogonale Matrix mit der Determinante 1. (n−1) Das Element d11 ist nicht negativ, und alle folgenden Elemente der ersten (n−1) Zeile von A sind 0. Da die Zeilen einer orthogonalen Matrix bez. des (n−1) 2
Standardskalarproduktes orthonormiert sind, haben wir (d11 ) = 1 und (n−1) = 1. Folglich m¨ ussen die restlichen Elemente der ersten Spalte damit d11 von A(n−1) alle gleich 0 sein. Also: ⎞ ⎛ 1 0 ... 0 ⎜ 0 d(n−1) . . . d(n−1) ⎟ 22 2n ⎟ A(n−1) = ⎜ ⎝ ...................... ⎠. (n−1)
0 dn2
...
(n−1)
dnn
7.3 Koordinatentransformationen in kartesischen Koordinatensystemen
251
Streicht man in A(n−1) die erste Zeile und die erste Spalte, so entsteht eine orthogonale Matrix, die nach unserer Annahme als Produkt von h¨ochstens (n − 1)(n − 2)/2 Matrizen der Form En−1;r,s (α) dargestellt werden kann. Folglich ist auch A(n−1) ein Produkt von Matrizen der Form En;r,s (α). Multipliziert man nun die obige Darstellung von A(n−1) von rechts der Reihe nach alt man (unter Verwendung der mit En;1;k (αk−1 ), k = n, n − 1, . . . , 3, 2, so erh¨ Darstellung von A(n−1) in Form eines Produktes von h¨ochstens (n−2)(n−1)/2 Matrizen der Form En;r,s (α)) die behauptete Darstellung f¨ ur A. Die Anzahl der Faktoren ist dabei maximal (n − 1)(n − 2)/2 + n − 1 = n(n − 1)/2 Als Folgerung erhalten wir aus dem Beweis des obigen Satzes den Satz 7.3.5 F¨ ur jede orthogonale (3, 3)-Matrix A mit |A| = 1 gibt es gewisse α1 , α2 und α3 mit 0
1 0 1 0 1 1 0 0 cos α2 0 − sin α2 cos α1 − sin α1 0 cos α1 0 A . 1 0 A · @ sin α1 A = @ 0 cos α3 − sin α3 A · @ 0 0 sin α3 cos α3 0 0 1 sin α2 0 cos α2
Zwei Bemerkungen zu Satz 7.3.5: (1.) Geometrisch l¨ aßt sich die Aussage von Satz 7.3.5 wie folgt deuten: ¨ Ist A = M(B, B ∗ ) die Ubergangsmatrix bei einer Koordinatentransformation im R3 , so entstehen die Koordinatenachsen von S ∗ := (A; B ∗ ) aus den Koordinatenachsen von S := (A; B) (nachfolgend von uns x-, y- bzw. z-Achse genannt), indem man zun¨achst in der x, y-Ebene die xund die y-Achse jeweils um den Winkel α1 dreht, dann in der (so entstandenen) x′ , z ′ -Ebene die Achsen um α2 dreht und abschließend in der so gebildeten y ′′ , z ′′ -Ebene die Achsen um α3 dreht. Unter anderem heißt dies auch: Gleichorientierte Basen des Raumes lassen sich durch Drehungen ineinander u uhren. ¨berf¨ (2.) Ein zu Satz 7.3.5 analoges Ergebnis erh¨ alt man f¨ ur orthogonale Matrizen A mit |A| = −1, indem man die orthogonale Matrix ⎛ ⎞ 1 0 ... 0 0 ⎜ 0 1 ... 0 0 ⎟ ⎜ ⎟ ′ ⎟ A := ⎜ ⎜ ................ ⎟ · A ⎝ 0 0 ... 1 0 ⎠ 0 0 . . . 0 −1 bildet und |A′ | = 1 beachtet.
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Nachfolgend geht es um die Erarbeitung von S¨atzen, die wir in den Kapiteln 9 und 10 ben¨otigen. F¨ ur das Verst¨ andnis von Kapitel 9 sind nur die S¨atze u ¨ ber symmetrische Matrizen und der Abschnitt 8.4 erforderlich. Die restlichen ¨ Uberlegungen dieses Kapitels werden wir im Kapitel 10 erstmals anwenden. F¨ ur weitere Anwendungen (z.B. beim L¨ osen von Differentialgleichungssystemen1 ) sei z.B. auf [Hup 90] verwiesen.
8.1 Motivation, Grundbegriffe Bevor wir zu den Definitionen der Begriffe Eigenwert“ und Eigenvektor“ ” ” kommen, zun¨ achst drei Probleme, bei deren L¨osung wir sp¨ater als Hilfsmittel Eigenwerte und Eigenvektoren berechnen werden. Erstes Problem Im affinen Raum Rn u ¨ ber R bezeichne S := (A; B) ein kartesisches Koordinatensystem, und es sei T die Menge aller Punkte X, die der Gleichung X T · A · X/S = a /S mit a ∈ R gen¨ ugen. Z.B. sei T in R2 definiert durch 1 4 x1 (x1 , x2 ) · =1 · 3 8 x2 bzw. x21 + 7x1 x2 + 8x22 = 1. Kann man dann ein kartesisches Koordinatensystem S ′ := (A; B ′ ) mit T : X T ′ · A′ · X ′ = a /S /S 1
¨ A.8.15. Siehe dazu UA
(8.1)
254
und
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
⎛
⎞ λ1 0 . . . 0 ⎜ 0 λ2 . . . 0 ⎟ ⎟ A′ := (M(B, B ′ ))T · A · M(B, B ′ ) = ⎜ ⎝ ................ ⎠ 0 0 . . . λn
finden? ¨ Mit anderen Worten: L¨ aßt sich die orthogonale Ubergangsmatrix M(B, B ′ ) ′ so bestimmen, daß beim Ersetzen von X/S durch M(B, B ) · X/S ′ in (8.1)
die beschreibende Gleichung von T in Koordinaten bez. S ′ eine einfachere Struktur hat (genauer: A′ in der beschreibenden Gleichung von T eine Diagonalmatrix ist) ? Falls eine L¨ osung dieses Problems existiert, nennt man die Matrix A aus der Gleichung von T diagonalisierbar. Zweites Problem orper K, B eine Basis von Vn Seien Vn ein n-dimensionaler VR u ¨ ber dem K¨ und f eine Abbildung von Vn in Vn , die sich mit Hilfe einer Matrix Af ∈ K n×n wie folgt beschreiben l¨ aßt: ∀x ∈ Vn : f (x)/B := Af · x/B . f ist eine sogenannte lineare Abbildung2 von Vn in Vn (bzw. ein Endomorphismus von Vn bzw. ein linearer Operator von Vn ). Gibt es dann eine Basis B ′ , so daß die Abbildung f auch durch eine Gleichung der Form ⎛ ⎞ λ1 0 . . . 0 ⎜ 0 λ2 . . . 0 ⎟ ⎟ f (x)/B ′ := ⎜ ⎝ . . . . . . . . . . . . . . . . ⎠ · x/B ′ 0 0 . . . λn
mit passend gew¨ahlten λ1 , . . . , λn ∈ K charakterisiert werden kann? Da bekanntlich x/B = M(B, B ′ ) · x/B ′ gilt (siehe Satz 4.7.2), ist obige Fragestellung gleichwertig mit: Existiert eine Matrix M(B, B ′ ) ∈ K n×n mit der Eigenschaft, daß (M(B, B ′ ))−1 · Af · M(B, B ′ ) eine Diagonalmatrix ist? Falls dieses Problem eine L¨ osung besitzt, heißt die lineare Abbildung f diagonalisierbar.
Drittes Problem Sei A ∈ K n×n nicht diagonalisierbar. Gibt es dann gewisse Matrizen Ai ∈ K ni ×ni (i = 1, ..., t) (die sogenannten Diagonalk¨ astchen von A) und eine regul¨ are Matrix B ∈ K n×n mit 2
Siehe Kapitel 10.
8.1 Motivation, Grundbegriffe
−1
B
⎛
255
⎞
A1 On1 ,n2 ... On1 ,nt ⎜ On2 ,n1 A2 ... On2 ,nt ⎟ ⎟ ·A·B =⎜ ⎝ ......................... ⎠ ? Ont ,n1 Ont ,n2 ... At
Dabei sollen die Matrizen Ai eine noch festzulegende Struktur besitzen. Z.B. verlangen wir sp¨ ater, daß die Ai sogenannte elementare Jordan-Matrizen3 sind. Falls f¨ ur A eine solche Matrix B existiert, nennen wir A quasi-diagonalisierbar. Die drei Probleme f¨ uhren damit auf die folgende Aufgabenstellung: Gegeben: A ∈ K n×n
Gesucht: M ∈ Krn×n mit MT · A · M bzw. M−1 · A · M ist eine Diagonalmatrix, d.h., nur in der Hauptdiagonalen dieser Matrix k¨ onnen Elemente ungleich 0 stehen, oder sie ist eine Quasi-Diagonalmatrix, d.h., nur l¨angs der Hauptdiagonalen befinden sich quadratische Untermatrizen, in denen von Null verschiedene Elemente stehen k¨onnen. Die Matrix A′ := M−1 · A · M heißt dann eine Normalform von A.
Nun zu den angek¨ undigten Begriffen und Bezeichnungen, die mit der L¨osung dieser Aufgabenstellung in Verbindung stehen: Definition Zwei Matrizen A1 , A2 ∈ K n×n heißen ¨ ahnlich, wenn es eine regul¨ are Matrix B ∈ K n×n mit B−1 · A1 · B = A2 gibt. Lemma 8.1.1 (mit Definitionen) (a) Auf der Menge K n×n ist die Relation R := {(A1 , A2 ) ∈ R | ∃B ∈ Krn×n : B−1 · A1 · B = A2 } ¨ ¨ eine Aquivalenzrelation, die sogenannte Ahnlichkeitsrelation von Matrizen. ahnliche Matrizen, d.h., (A1 , A2 ) ∈ R, so gilt (b) Sind A1 , A2 ∈ K n×n ¨ rg(A1 − λ · En )i = rg(A2 − λ · En )i f¨ ur alle λ ∈ K und alle i ∈ N.
Beweis. (a): Wegen E−1 ur alle A ∈ K n×n ist R reflexiv. Da aus n · A · En = A f¨ −1 −1 = A1 folgt, ist R symmetrisch. F¨ ur den B · A1 · B = A2 stets B · A2 · B Nachweis der Transitivit¨ at seien (A1 , A2 ), (A2 , A3 ) ∈ R, d.h., es existieren gewisse regul¨ are Matrizen B und C mit B−1 · A1 · B = A2 und C−1 · A2 · C = A3 . Folglich haben wir C−1 · (B−1 · A1 · B) · C = A3 , woraus sich (B · C)−1 · A1 · (B · C) = A3 und dann (A1 , A3 ) ∈ R ergibt. (b): Sei B−1 · A1 · B = A2 f¨ ur eine gewisse regul¨ are Matrix B ∈ K n×n . Dann gilt 3
Siehe Abschnitt 8.5.
256
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen (A2 − λ · En )i = (B−1 · A1 · B − λ · B−1 · B)i = (B−1 · (A1 − λ · En ) · B)i = B−1 · (A1 − λ · En )i · B.
(b) folgt damit aus Satz 3.3.3.
Sei A ∈ K n×n . Dann heißt
Definition •
λ ∈ K Eigenwert (kurz: EW) von A :⇐⇒ ∃x ∈ K n×1 \{o} : A · x = λ · x. Die Gleichung A · x = λ · x l¨ aßt sich auch in der Form (A − λ · En ) · x = o aufschreiben, so daß man auch definieren kann:
•
λ ∈ K Eigenwert von A :⇐⇒ ∃x ∈ K n×1 \{o} : (A − λ · En ) · x = o.
Beispiel
Seien K = R und
⎛
⎞ 1 0 1 A = ⎝ 0 1 0 ⎠. 1 1 1
Dann ist λ1 := 0 ein Eigenwert, da f¨ ur x1 := (1, 0, −1)T die Gleichung A · x1 = o = 0 · x1 gilt. Auch λ2 := 1 ist EW von A, da z.B. f¨ ur x2 := (1, −1, 0)T gilt: A · x2 = x2 . Definitionen Seien A ∈ K n×n und λ ∈ K ein EW von A. Dann heißt •
die Menge
LA (λ) := {x ∈ K n×1 | A · x = λ · x}
Eigenraum des Eigenwerts λ von A und jedes Element von LA (λ)\{o} ein zu λ geh¨ orender Eigenvektor (abgek¨ urzt: EV). •
die Menge LiA (λ) := {x ∈ K n×1 | (A − λ · En )i · x = o} (i ∈ N), verallgemeinerter Eigenraum des Eigenwerts λ von A und jedes Element von orender verallgemeinerter Eigenvektor (abgek¨ urzt: LiA (λ)\{o} ein zu λ geh¨ vEV).
Offenbar ist ein Eigenraum auch ein verallgemeinerter Eigenraum. Außerdem ist jeder verallgemeinerte Eigenraum (als L¨ osungsraum eines homogenen LGS) ein Untervektorraum. Definitionen Seien A ∈ K n×n und U ein UVR des VRs K n×1 . Dann heißt U
•
A-invariant :⇐⇒ A · U := {A · x | x ∈ U } ⊆ U ;
•
A-zerlegbar :⇐⇒ ∃ A-invariante UVRe U1 , U2 : dimU1 ≥ 1 ∧ dimU2 ≥ 1 ∧ U1 ⊕ U2 = U ; A-unzerlegbar :⇐⇒ U ist nicht A-zerlegbar.
•
Beispiele zu obigen Begriffen findet man im Abschnitt 8.3.
Bevor wir uns Methoden zur Berechnung von Eigenwerten und Eigenvektoren u uck zu den eingangs angegebenen drei Problemen, f¨ ur die ¨ berlegen, kurz zur¨ die n¨ achsten zwei Lemmata und der Satz 8.1.4 L¨osungswege zeigen.
8.1 Motivation, Grundbegriffe
257
Lemma 8.1.2 Seien A, B, C ∈ K n×n , B := (b1 , ..., bn ) regul¨ar, C := (c1 , ..., cn ) und C = B−1 · A · B. Dann k¨onnen die Spalten b1 , ..., bn von B als Basis B von K n×1 aufgefaßt werden und es gilt: ∀i ∈ {1, ..., n} : ci = (A · bi )/B ,
(8.2)
d.h., f¨ ur jedes i ist die i-te Spalte von C die Koordinatendarstellung des Vektors uglich der Basis B. A · bi bez¨
Beweis.
Seien dT1 , ..., dTn die Zeilen der Matrix B−1 , womit j 1 f¨ ur k = l, ∀k, l ∈ {1, 2, ..., n} : dTk · bl = δk,l = 0 f¨ ur k = l
(8.3)
gilt. Sei weiterhin c′i := (c′i1 , c′i2 , ..., c′in )T = (A · bi )/B (i = 1, 2, ..., n), d.h., es gelte A · bi = c′1i · b1 + ... + c′ni · bn . ¨ Dann folgt mit Hilfe von (8.3) aus den folgenden Uberlegungen die Behauptung (8.2): ci = B−1 · (A · bi ) = B−1 · (c′1i · b1 + ... + c′ni · bn ) 0 T 1 d1 = @ ... A · (c′1i · b1 + ... + c′ni · bn ) dTn 0
c′1i · (dT1 · b1 ) + c′2i · (dT1 · b2 ) + ... + c′ni · (dT1 · bn )
B ′ B c1i · (dT2 · b1 ) + c′2i · (dT2 · b2 ) + ... + c′ni · (dT2 · bn ) = B B ................................................ @
c′1i · (dTn · b1 ) + c′2i · (dTn · b2 ) + ... + c′ni · (dTn · bn ) 1 c′i1 = @ ... A c′ni 0
1 C C C C A
= c′i
Eine unmittelbare Folgerung aus dem Lemma 8.1.2 ist: Lemma 8.1.3 Seien A ∈ K n×n , B := (b1 , ..., bn ) ∈ Krn×n und Ai ∈ K ni ×ni f¨ ur i = 1, ..., t. Dann gilt ⎛ ⎞ A1 On1 ,n2 ... On1 ,nt ⎜ On2 ,n1 A2 ... On2 ,nt ⎟ ⎟ B−1 · A · B = ⎜ ⎝ ........................ ⎠ Ont ,n1 Ont ,n2 ... At
genau dann, wenn der UVR Ui := [{bn1 +n2 +...+ni−1 +1 , ..., bn1 +n2 +...+ni }] f¨ ur jedes i ∈ {1, ..., t} A-invariant ist und K n×1 = U1 ⊕ U2 ⊕ ... ⊕ Ut gilt.
258
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Satz 8.1.4 Seien A ∈ K n×n ⎛ λ1 0 . . . ⎜ 0 λ2 . . . ⎜ B−1 · A · B = ⎜ . .. ⎝ .. .
und B := (b1 , . . . , bn ) ∈ Krn×n . Dann gilt ⎞ 0 0 ⎟ ⎟ .. ⎟ ⇐⇒ ∀i ∈ {1, . . . , n} : . ⎠ bi ist EV zum EW λi von A ∧ 0 . . . 0 λn b1 , . . . , bn sind l.u.
Beweis.
Die Matrix
⎛
λ1 0 . . . ⎜ 0 λ2 . . . ⎜ ⎜ .. .. ⎝ . . 0
0 0 .. .
0 . . . λn
⎞ ⎟ ⎟ ⎟ ⎠
bezeichnen wir nachfolgend mit D. =⇒“: Sei B−1 · A · B = D. Hieraus folgt A · B = B · D bzw. ” (A · b1 , A · b2 , . . . , A · bn ) = (λ1 · b1 , λ2 · b2 , . . . , λn · bn ), womit A · bi = λi · bi f¨ ur alle i ∈ {1, . . . , n} gilt. Da bi f¨ ur jedes i die Spalte einer regul¨ aren Matrix ist, gilt bi = o und bi ist folglich EV zum EW λi von A. ⇐=“: Seien b1 , . . . , bn l.u. EVen zu den EWen λ1 , . . . , λn von A. Dann exi” ur i = 1, ..., n haben wir: stiert B−1 und wegen A · bi = λi · bi f¨ ∀i ∈ {1, ..., n} : (A · bi )/B = (0, .., 0,
λi , 0, ..., 0)T . i-te Stelle
Damit ergibt sich unsere Behauptung aus Lemma 8.1.2. Als Folgerungen aus Satz 8.1.4 erhalten wir:
(a) Das erste Problem besitzt genau dann eine L¨osung, wenn eine orthonormierte Basis f¨ ur Vn aus EVen zu den EWen von A existiert. (b) Das zweite Problem besitzt genau dann eine L¨osung, wenn in Vn eine Basis aus EVen zu den EWen der Matrix Af existiert. (c) Das dritte Problem besitzt genau dann eine L¨osung, wenn der VR K n×1 als direkte Summe von A-invarianten UVRen dargestellt werden kann. Wie kann man aber nun die EWe und EVen einer Matrix A sowie A-invariante (m¨ oglichst auch A-unzerlegbare) UVRe bestimmen? Wir beginnen mit Aussagen u ¨ber EWe.
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
259
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
Satz 8.2.1 Seien A ∈ K n×n und λ ∈ K. Dann gilt: λ ist EW von A ⇐⇒ |A − λ · En | = 0. Beweis. Wie wir nach der Definition eines Eigenwertes bereits angegeben haben, ist λ genau dann ein EW von A, wenn das homogene LGS (A − λ · En ) · x = o eine nichttriviale L¨ osung x besitzt. Dieses homogene LGS besitzt aber nach Satz 3.4.5 genau dann eine nichttriviale L¨osung, wenn rg(A − λ · En ) < n ist, was mit |A − λ · En | = 0 gleichwertig ist. Beispiele Seien K = R und ⎛ ⎞ 1 0 1 A = ⎝ 0 1 0 ⎠. 1 1 1 Offenbar gilt
0 = |A − λ · E3 | =
1−λ 0 1 0 1 − λ 0 = (1 − λ) · 1−λ 1 1 1 1−λ
1 1−λ
= (1 − λ) · ((1 − λ)2 − 1) = (1 − λ)(λ2 − 2 · λ) = (1 − λ) · (λ − 2) · λ nur f¨ ur λ ∈ {0, 1, 2}, womit 0, 1 und 2 die EWe von A sind. W¨ ahlt man ebenfalls K = R, jedoch 2 1 A= , −5 0 1 2 so ergibt sich aus |A−λ·E2 | = 2−λ −5 −λ = λ −2λ+5 = 0, daß nur λ1 := 1+2·i oder λ2 := 1 − 2 · i dieser Gleichung gen¨ ugen, womit A im K¨orper der reellen Zahlen keine Eigenwerte besitzt. Definition Die (ausgerechnete) Determinante |A−λ·En |, wobei A ∈ K n×n , heißt charakteristisches Polynom von A. ahnliche Matrizen, d.h., es gibt eine regul¨are Satz 8.2.2 Seien A, A′ ∈ K n×n ¨ Matrix B ∈ K n×n mit B−1 · A · B = A′ . Dann besitzen A und A′ dasselbe charakteristische Polynom. Beweis. 136):
Aus B−1 · A · B = A′ folgt unter Verwendung von Satz 3.2.5 (Seite
260
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
|A′ − λ · En | = = = =
|B−1 · A · B − λ · En | = |B−1 · A · B − B−1 · B| |B−1 · (A − λ · En ) · B| = |B−1 | · |A − λ · En | · |B| |B|−1 · |A − λ · En | · |B| |A − λ · En |.
Satz 8.2.1 besagte, daß λ ∈ K genau dann EW der Matrix A ist, wenn λ eine Nullstelle des charakteristischen Polynoms ist. Aus diesem Grunde werden wir uns jetzt kurz mit Nullstellen von Polynomen befassen. Einiges u ¨ber die Nullstellenberechnung von Polynomen Definitionen Unter einem Polynom u ¨ ber dem K¨orper K versteht man eine Abbildung pn von K in K, die definiert ist durch ∀x ∈ K : pn (x) = an · xn + an−1 · xn−1 + . . . + a1 · x + a0 , wobei a0 , . . . , an ∈ K die Koeffizienten des Polynoms sind und n ∈ N0 ist. ur den Fall a0 = a1 = ... = Falls an = 0, heißt pn Polynom n-ten Grades. F¨ an = 0 habe pn den Grad −1. Grad(pn ) bezeichne den Grad des Polynoms pn . Die Gleichung an · xn + an−1 · xn−1 + . . . + a1 · x + a0 = 0 heißt algebraische Gleichung in x und die L¨osungen (∈ K) dieser Gleichung werden Nullstellen oder Wurzeln des Polynoms pn genannt. Wegen der sp¨ ateren Anwendungen werden uns nachfolgend nur Aussagen u ¨ ber Nullstellen von Polynomen u ber den K¨ o rper der reellen oder komplexen Zah¨ len interessieren. Wir beginnen mit Satz 8.2.3 (Fundamentalsatz der Algebra) Jede algebraische Gleichung mit reellen oder komplexen Koeffizienten hat mindestens eine Wurzel in C. Beweis. Es gibt verschiedene M¨ oglichkeiten, dieses Satz zu beweisen. So hat bereits Gauß 5 Beweise f¨ ur den Fundamentalsatz gegeben. Der Beweis wird um so einfacher, je mehr S¨ atze man aus der Analysis heranziehen kann.4 Der nachfolgend angegebene Beweis f¨ ur den Fundamentalsatz benutzt nur die Begriffe Limes einer Folge, stetige Funktion und den Satz: Seien r ∈ R, Kr := {(x, y) ∈ R2 | x2 + y 2 ≤ r 2 } und f : Kr −→ R eine stetige 4
Siehe dazu z. B. [Wae 50], S. 236, wo gezeigt wird, wie man aus S¨ atzen der Funktionentheorie den Fundamentalsatz als unmittelbare Folgerung erh¨ alt.
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
261
ur alle (x, y) ∈ Kr . Funktion. Dann existiert ein (a, b) ∈ Kr mit f (a, b) ≤ f (x, y) f¨ Sei nachfolgend
5
p(z) := an · z n + an−1 · z n−1 + ... + a1 · z + a0 ein Polynom mit Koeffizienten a0 , ..., an ∈ C und an = 0. F¨ ur beliebige z := x+i·y ∈ C k¨ onnen wir f (x, y) := |p(x + i · y)|
setzen. f : R2 −→ R ist offenbar eine stetige Funktion, von der wir zeigen werden, daß ihr Minimum 0 ist. Wegen ∀w ∈ C : |w| = 0 ⇐⇒ w = 0 folgt hieraus unmittelbar die Existenz eines z ∈ C mit p(z) = 0. Wegen |p(z)| = |an z n + an−1 z n−1 + ... + a1 z + a0 | = |an | · |z|n · |1 +
an−1 1 an z
+ ... +
a1 1 an z n−1
+
a0 1 | an z n
ist lim|z|→∞ |p(z)| = ∞, womit man sich bei der Suche nach dem Minimum von f (x, y) auf die (x, y) aus einer gewissen Menge Kr mit passend gew¨ ahltem r ∈ R beschr¨ anken kann. Bezeichne nachfolgend α := a+b·i ein Element aus C mit f (a, b) = min(x,y)∈Kr f (x, y). Angenommen, p(α) = 0. In diesem Fall l¨ aßt sich ein Polynom q durch p(w + α) p(α)
∀w ∈ C : q(w) :=
definieren. Dieses Polynom l¨ aßt sich mit passend gew¨ ahlten Koeffizienten b, ck+1 , ..., cn ∈ C auch in der Form n X ci · wi 1 + b · wk + i=k+1
darstellen, wobei man k stets so w¨ ahlen kann, daß b = 0 ist. Nach Satz 2.3.6 existiert ein c ∈ C mit b · ck = −1. Folglich haben wir q(c · w) = 1 − wk + wk+1 ·
n X
ci · ci · wi−k−1
n X
|ci | · |ci | · wi−k−1
i=k+1
und f¨ ur alle w ∈ R mit 0 < w < 1 gilt |q(c · w)| ≤ 1 − wk + wk+1 ·
i=k+1
|
≤
≤ 1 − wk · (1 + w · C).
Pn
{z
i=k+1
|ci |·|ci |=:C
}
Die reelle Zahl w l¨ aßt sich nun so klein w¨ ahlen, daß 0 < 1 + w · C < 1 und damit 1 − wk · (1 + w · C) < 1 gilt. Folglich haben wir die Existenz eines w ∈ R und 5
Ein Spezialfall des Satzes: Jede stetige zweistellige reelle Funktion, die auf einer beschr¨ ankten und abgeschlossenen Menge definiert ist, besitzt auf dieser Menge ein Minimum.
262
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen ˛ ˛ ˛ ˛ eines c ∈ C mit ˛ p(c·w+α) ˛ < 1 nachgewiesen. Die hieraus folgende Ungleichung p(α) |p(c · w + α)| < p(α)| ist jedoch ein Widerspruch zu unserer Definition von α. Also ist p(α) = 0.
Satz 8.2.4 Ist x1 eine Nullstelle des Polynoms pn mit pn (x) =
n i=0
ai · xi ,
n ≥ 1 und an = 0, so existiert ein Polynom pn−1 des Grades n − 1 mit pn (x) = (x − x1 ) · pn−1 (x). Mit anderen Worten: Das Polynom pn ist durch x − x1 teilbar, falls x1 eine Nullstelle von pn ist. Beweis.
Man rechnet leicht nach, daß xi − xi1 = (x − x1 ) · (xi−1 + x1 · xi−2 + . . . + xi−2 · x + xi−1 1 1 )
f¨ ur jedes i ∈ N gilt. Wegen pn (x1 ) = 0 folgt hieraus n pn (x) = pn (x) − pn (x1 ) = i=1 ai · (xi − xi1 ) n ai · (xi−1 + x1 · xi−2 + . . . + xi−1 = (x − x1 ) · 1 ) i=1
= (x − x1 ) · pn−1 (x).
:= pn−1 (x)
Da pn−1 offenbar ein Polynom (n − 1)-ten Grades ist, ist folglich unsere Behauptung bewiesen. Vor weiteren Eigenschaften der Polynome u ¨ berlegen wir uns als n¨achstes ein Verfahren zur Berechnung von pn (x)/(x − x1 ), wobei x1 nicht notwendig eine Nullstelle von pn sein muß: Seien
pn (x) := an xn + an−1 xn−1 + . . . + a1 x + a0 , pn−1 (x) := bn−1 xn−1 + bn−2 xn−2 + . . . + b1 x + b0
und es gelte f¨ ur gewisse x1 , α: pn (x)/(x − x1 ) = pn−1 (x) + α/(x − x1 ) bzw. pn (x) = (x − x1 ) · pn−1 (x) + α.
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
263
Dann erh¨ alt man durch Ausmultiplizieren von (x − x1 ) · pn−1 (x), anschließendem Zusammenfassen der Summanden und Koeffizientenvergleich mit pn (x) folgende Beziehungen zwischen den Koeffizienten: bn−1 = an , bn−2 = an−1 + x1 · bn−1 , bn−3 = an−2 + x1 · bn−2 , .. . b0 = a1 + x1 · b1 , α = a0 + x1 · b0 , aus denen man bei gegebenem Polynom pn die Koeffizienten des gesuchten Polynoms pn−1 und den Divisionsrest“ α berechnen kann. Die dabei durch” zuf¨ uhrenden Rechnungen lassen sich sehr u ¨bersichtlich nach dem sogenannten 6 uhren: Horner-Schema durchf¨ an
an−1
an−2
...
an−3
+ + + x1 bn−1 x1 bn−2 x1 bn−3 . . .
x1 ? bn−1
? bn−2
? bn−3
? bn−4
...
a1
a0
+ x1 b1
+ x1 b0
? b0
? α
Aus diesem Schema lassen sich nun bei gegebenen ai (i = 0, . . . , n) und x1 nicht nur die Koeffizienten bj (j = 0, . . . , n − 1) des Polynoms pn−1 ablesen, sondern auch α = pn (x1 ). Beispiel Seien p4 (x) = 2x4 − 3x3 + 6x − 1 und x1 = −2. Dann hat das zugeh¨ orige Horner-Schema die folgende Gestalt: −2
2 −3 0 6 −1 −4 14 −28 44 2 −7 14 −22
43
Also haben wir p4 (−2) = 43 und (2x4 − 3x3 + 6x − 1) : (x + 2) = 2x3 − 7x2 + 14x − 22 + 6
43 . x+2
Benannt nach dem englischen Mathematiker W. G. Horner (1774 - 1834), obwohl bereits chinesische Mathematiker sich eines ¨ ahnlichen Verfahrens Jahrhunderte vor Horner bedienten und auch L. Euler dieses Verfahren kannte.
264
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Es sei noch bemerkt, daß eine Fortsetzung dieses Verfahrens (sogenanntes vollst¨ andi” ges Horner-Schema“): 2 −3 0 6 −1 −2 −4 14 −28 44 −2
−7 14 −22 −4 22 −72
−2
2 −11 36 −94 −4 30
−2
2 −15 66 −4
2
−2
43
2 −19 2
die Koeffizienten ci (i = 0, 1, 2, 3) des mit p4 (x) identischen Polynoms liefert: 2(x + 2)4 − 19(x + 2)3 + 66(x + 2)2 − 94(x + 2) + 43.
P4
i=1 ci (x+2)
i
Als Folgerung aus den S¨ atzen 8.2.3 und 8.2.4 l¨aßt sich nun durch vollst¨andige Induktion u ¨ ber n beweisen: Satz 8.2.5 Jedes Polynom n-ten Grades pn (x) = ni=0 ai · xi mit Koeffizienten aus R oder C l¨aßt sich in Linearfaktoren mit passend gew¨ahlten reellen oder komplexen xi zerlegen: pn (x) = an · (x − x1 ) · (x − x2 ) · . . . · (x − xn ). Ein Polynom n-ten Grades hat also h¨ochstens n verschiedene Nullstellen in C. Beweis.
¨ UA.
Die xi (1 ≤ i ≤ n) aus Satz 8.2.5 sind i.allg. nicht alle verschieden. Wir definieren daher: Definition xi heißt eine k-fache Nullstelle von pn (x) :⇐⇒ ∃ Polynom q des Grades n − k: pn (x) = (x − xi )k · q(x) ∧ q(xi ) = 0.
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
265
Wir kommen nun zur konkreten Bestimmung der Nullstellen von Polynomen n-ten Grades mit Koeffizienten aus R bzw. C: Die F¨ alle n = 1 und n = 2 sind klar (Schulstoff!). n = 3: 7 ¨ Ublicherweise u uhrt man zur Nullstellenberechnung des Polynom ¨ berf¨ p3 (x) = x3 + a2 · x2 + a1 · x + a0 dieses Polynom durch die Substitution x = y − (a2 /3) zun¨ achst in p∗ (x) := y 3 + py + q, wobei p := a1 − (a22 /3) und q := 2 · (a32 /27) − (a1 · a2 /3) + a0 . Um nun die Nullstellen des reduzierten Polynoms p∗ zu berechnen, gibt es eine Reihe von Verfahren, von denen hier nur eine Variante angegeben ist. Wir setzen D := (p/3)3 + (q/2)2 und unterscheiden zwei F¨ alle: Fall 1: D ≥ 0. In diesem Fall sind 0 0 √ √ 3 3 −(q/2) + D + −(q/2) − D y1 := := u =: v y2 := −(u + v)/2 + 3 · ((u − v)/2) · i
y3 := −(u + v)/2 − 3 · ((u − v)/2) · i Cardanische Formeln“ 8 ” die Nullstellen des Polynoms p∗ (Beweis: Nachrechnen! Eine Herleitung dieser Formel findet man z.B. in [Cig 95] oder [Enz 68]; S. 108/109). Fall 2: D < 0. 7
8
Genauer: In vielen Formelsammlungen findet man die nachfolgend angegebenen L¨ osungsformeln f¨ ur Gleichungen dritten und vierten Grades. Dar¨ uberhinaus gibt es jedoch viele weitere Methoden der Berechnung von Nullstellen von Polynomen. Siehe dazu z.B. [Mat 1878]. Benannt nach Geronimo Cardano (1501–1576), der diese Formeln als erster publizierte, obwohl von Scipione del Ferro (1465–1526) und insbesondere von Niccolo Tartaglia (um 1500–1557) diese Formeln bereits vorher entwickelt wurden.
266
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Auch in diesem Fall k¨ onnte man die in Fall 1 angegebenen Cardanischen Formeln verwenden, jedoch rechnet man hier im Komplexen“, obwohl die Null” stellen von p∗ alle reell sind. G¨ unstiger sind deshalb die folgenden L¨osungsformeln: . Seien ̺ := −p3 /27 und cos ϕ := −q/(2 · ̺). Dann erh¨ alt man durch √ y1 := 2 · 3 ̺ · cos(ϕ/3) √ y2 := 2 · 3 ̺ · cos((ϕ/3) + (2π/3)) √ y3 := 2 · 3 ̺ · cos((ϕ/3) + (4π/3)) die Nullstellen von p∗ . Die gesuchten Nullstellen des Polynoms p3 sind dann xi := yi − a2 /3
(i = 1, 2, 3).
n = 4: Durch die Substitution x = y − a3 /4
geht das Polynom p4 (x) = x4 + a3 x3 + a2 x2 + a1 x + a0 in das Polynom pˆ4 (y) = y 4 + py 2 + qy + r mit den neuen Koefizienten p, q, r u ¨ ber. Das L¨ osungsverhalten der algebraischen Gleichung pˆ4 (y) = 0 ist abh¨angig vom L¨ osungsverhalten ihrer kubischen Resolvente: z 3 + 2pz 2 + (p2 − 4r)z − q 2 = 0. Sind z1 , z2 , z3 die L¨ osungen dieser Gleichung, so lassen sich die Nullstellen y1 , . . . , y4 des Polynoms pˆ4 (y) auf folgende Weise berechnen: y1 y2 y3 y4
:= := := :=
√ √ √ (1/2) · ( z1 + z2 + z3 ) √ √ √ (1/2) · ( z1 − z2 − z3 ) √ √ √ (1/2) · (− z1 + z2 − z3 ) √ √ √ (1/2) · (− z1 − z2 + z3 ),
womit xi := yi − a3 /4
(i = 1, . . . , 4)
die Nullstellen des Polynoms p4 (x) sind. Gleichungen ab dem f¨ unften Grad sind i.allg. nicht mehr durch Radikale (Wurzelausdr¨ ucke) l¨ osbar.9 Bewiesen wurde dieser tiefliegende Satz erstmalig vollst¨ andig vom norwegischen Mathematiker Nils Henrik Abel (1802–1829) 9
Benutzt man sogenannte Theta-Funktionen, so gibt es jedoch L¨ osungsformeln f¨ ur Gleichungen beliebigen Grades. Siehe dazu z.B. [Kin 96].
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
267
im Jahre 1826. Einen Beweis findet der Leser z.B. in [Koc 74], [Cig 95] oder Band 2. Wir werden uns sp¨ ater noch einige Verfahren zur n¨aherungsweisen Berechnung von Nullstellen von Polynomen u ¨ berlegen. Zun¨achst jedoch werden wir versuchen, durch Probieren bzw. Erraten“ von Nullstellen xi und anschlie” ßendem Abspalten des Linearfaktors (x − xi ) vom Polynom pn (x) schrittweise die Nullstellen zu bestimmen. Dabei erweist sich folgender Satz als hilfreich, den man leicht verifizieren kann. Satz 8.2.6 (Vietascher10 Wurzelsatz) Sind x1 , x2 , . . . , xn die Wurzeln des Polynoms pn (x) = xn + an−1 xn−1 + . . . + a1 x + a0 , so besteht zwischen diesen Wurzeln und den Koeffizienten a0 , . . . , an−1 von pn (x) der folgende Zusammenhang: x1 + x2 + x3 + . . . + xn = −an−1 , x1 x2 + x1 x3 + . . . + x1 xn + x2 x3 + . . . + xn−1 xn = an−2 , x1 x2 x3 + x1 x2 x4 + . . . + xn−2 xn−1 xn = −an−3 , .. . x1 x2 x3 . . . xn = (−1)n a0 . Speziell bedeutet dies: Hat pn (x) ganzzahlige Koeffizienten und eine ganzzahlige Wurzel, so ist diese als Teiler in a0 enthalten.11 Weiter mit Eigenschaften der Eigenwerte von Matrizen: Eine unmittelbare Folgerung aus Satz 8.2.5 ist der Satz 8.2.7 Sei A ∈ K n×n , K ∈ {R, C}. Dann gilt: (a) A hat h¨ochstens n EWe, falls K = R. (b) A hat genau n EWe (Vielfachheiten mitgez¨ahlt), falls K = C. Die Aussage des folgenden Satzes ergibt sich aus Satz 8.2.6 und ist bei Proberechnungen verwendbar. 10
11
Benannt nach dem franz¨ osischen Juristen Francois Vi`ete (lateinisiert: Vieta; 1540–1603), f¨ ur den Mathematik Freizeitbesch¨ aftigung war. Seine Arbeiten verbesserten die algebraische Sprache und f¨ orderten das Buchstabenrechnen“. Man ” hat Vi`ete deshalb auch Vater der Algebra“ genannt. ” Die letzte Aussage erh¨ alt man leicht unter Verwendung des Horner-Schemas: Aus der Berechnung von pn (α) mittels Horner-Schema folgt a0 = −x1 · b0 . Sind die ai ∈ Z, so auch die bj , womit x1 ein Teiler von a0 ist.
268
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Satz 8.2.8 (mit Definition) Sei A := (aij )n,n ∈ Cn×n und bezeichnen λ1 , . . . , λn die n EWe von A. Dann gilt: (a) |A| = λ1 · λ2 · . . . · λn . (b) a11 + a22 + . . . + ann = λ1 + λ2 + . . . + λn . (a11 + . . . + ann nennt man auch Spur der Matrix A.) Satz 8.2.9 Seien A ∈ Rn×n und A symmetrisch (d.h. AT = A) oder T A ∈ Cn×n und A hermitisch (d.h. A = A). Dann besitzt das charakteristische Polynom von A nur reelle Nullstellen, d.h., genau n reelle Nullstellen (Vielfachheiten mitgez¨ahlt). Beweis. Wir beweisen den Satz hier nur f¨ ur den Fall A ∈ Rn×n und A symmetrisch. Der andere Fall ist unter Verwendung von Satz 2.3.5, (a) leicht analog zu begr¨ unden. Wegen Satz 8.2.7 haben wir nur zu zeigen, daß A nur reelle EWe besitzt. Angenommen, es gibt einen EW λ1 ∈ C\R von A mit zugeh¨origem EV x1 . Dann gilt A · x1 = λ1 · x1 , woraus sich die Gleichung x1 · A · x1 = λ1 · xT1 · x1 ergibt. Da xT1 · x1 ∈ R, ist die rechte Seite dieser Gleichung aus C\R. Wir zeigen, daß die linke Seite der Gleichung zu R geh¨ort, woraus ein Widerspruch und damit unsere Behauptung folgt: Offenbar ist eine Zahl z ∈ C genau dann reell, wenn z = z ist. Bildet man nun z f¨ ur z := xT1 ·A ·x1 , so erh¨ alt man wegen der Symmetrie von A und den Eigenschaften konjugiert komplexer Zahlen sowie den Regeln f¨ urs Transponieren: T
z = xT1 · A · x1 = (xT1 · A · x1 )T = xT1 · A · x1 = xT1 · A · x1 = z, womit xT1 · A · x1 reell ist. Satz 8.2.10 (a) Sei A ∈ K n×n . Dann stimmen die charakteristischen Polynome von A uberein. und AT ¨ (b) Die Eigenwerte einer orthogonalen (bzw. unit¨aren) Matrix haben stets den Betrag 1. (c) Ist λ ein EW einer orthogonalen Matrix A, so gilt λ = 0 und 1/λ ist ebenfalls ein EW von A. Beweis.
¨ (siehe auch UA ¨ A.8.10). UA
Abschließend u ur einen Klassiker“ aus ¨berlegen wir uns noch den Beweis f¨ ” der Theorie der EWe.
8.2 Eigenwerte von Matrizen und Nullstellen von Polynomen
269
Satz 8.2.11 ( Satz von Cayley-Hamilton12 ) Es sei A ∈ Rn×n und ϕ(x) := |A − x · En | = (−1)n · xn + an−1 · xn−1 + ... + a1 · x + a0 . Dann gilt (−1)n · An + an−1 · An−1 + ... + a1 · A + a0 · En = On,n . Beweis. Offenbar gibt es unendlich viele x ∈ R, f¨ ur die ϕ(x) = 0 ist. F¨ ur solche x existiert dann die Matrix (A−x·En )−1 , die sich bekanntlich mit Hilfe der Adjunkten Bi,j der Determinante B := |A − x · En | wie folgt berechnen l¨ aßt: (A − x · En )−1 =
1 · (Bi,j )Tn,n . ϕ(x)
oßte Exponent von x h¨ ochstens gleich n−1. Folglich In jeder Adjunkten Bi,j ist der gr¨ l¨ aßt sich die Matrix (A − x · En )−1 mit Hilfe geeignet festgelegter (n, n)-Matrizen Bn−1 , ..., B1 , B0 auch in der Form (A − x · En )−1 =
1 · (xn−1 · Bn−1 + xn−2 · Bn−2 + ... + x · B1 + B0 ) ϕ(x)
darstellen. Aus der Gleichung (A − x · En ) · (A − x · En )−1 = En folgt dann ϕ(x) · En = (A − x · En ) · (xn−1 · Bn−1 + xn−2 · Bn−2 + ... + x · B1 + B0 ) = −xn · Bn−1 + xn−1 · (A · Bn−1 − Bn−2 ) + xn−2 · (A · Bn−2 − Bn−3 ) +... + x · (A · B1 − B0 ) + A · B0 . Koeffizientenvergleich liefert die Gleichungen (−1)n · En = −Bn−1 an−1 · En = A · Bn−1 − Bn−2 an−2 · En = A · Bn−2 − Bn−3 ................................ a1 · E n = A · B 1 − B 0 a0 · E n = A · B 0 . Multipliziert man nun die obige erste Gleichung von links mit An , die zweite Gleichung mit An−1 , usw. und addiert anschließend s¨ amtliche Gleichungen, so erh¨ alt man die Behauptung.
12
A. Cayley (1821–1895), W. R. Hamilton (1805–1865).
270
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
8.3 Verallgemeinerte Eigenr¨ aume Nachfolgend sollen wesentliche Eigenschaften der verallgemeinerten Eigenr¨ aume hergeleitet werden. Insbesondere geht es dabei darum, mit Hilfe der verallgemeinerten Eigenr¨ aume A-invariante UVRe zu konstruieren. Durch die konstruierten A-invarianten UVRe und Lemma 8.1.3 gelingt uns dann per Induktion der Nachweis der L¨ osbarkeit von Problem 1 und 2 aus 8.1 f¨ ur symmetrische und unit¨ are Matrizen. Außerdem werden einige S¨ atze bewiesen, die es uns in den Abschnitten 8.4 und 8.5 erm¨ oglichen werden, f¨ ur gewisse K¨ orper K (z.B. K = C) und einer beliebigen Matrix aren Matrix B ∈ K n×n anzugeA ∈ K n×n Verfahren zur Berechnung einer regul¨ ben, die A mittels B−1 · A · B in eine Diagonalmatrix, falls A diagonalisierbar ist, oder, im Falle der Nichtdiagonalisierbarkeit von A, in eine Quasi-Diagonalmatrix13 u uhrt. ¨ berf¨ In Vorbereitung auf einige nachfolgende Beweise sei dem Leser empfohlen, sich den ¨ daß f¨ Abschnitt 4.5 noch einmal anzusehen. Außerdem u ur ¨ berlege man sich als UA, beliebige A ∈ K n×n , i ∈ N und λ ∈ K die folgende Gleichung gilt: A · (A − λ · En )i = (A − λ · En )i · A.
(8.4)
Nun aber zu den angek¨ undigten Eigenschaften von verallgemeinerten Eigenr¨ aumen. Satz 8.3.1 Sei λ ein EW der Matrix A ∈ K n×n . Dann ist f¨ ur jedes i ∈ N der verallgemeinerte Eigenraum LiA (λ) ein A-invarianter UVR des VRs K n×1 mit dimLiA (λ) = n − rg(A − λ · En )i .
(8.5)
Außerdem existiert ein kleinstes r ∈ {1, ..., n} – nachfolgend (bei einer fixierten Matrix A) mit r(λ) bezeichnet – mit der Eigenschaft: r(λ)−1
L1A (λ) ⊂ L2A (λ) ⊂ ... ⊂ LA
r(λ)
(λ) ⊂ LA
r(λ)+1
(λ) = LA
(λ) = ... .
(8.6)
Beweis. Sei T := A − λ · En . Da λ EW von A ist, gilt rgT < n. Bis auf die A-Invarianz von LiA (λ) folgt unser Satz damit aus Satz 4.5.4. Die A-Invarianz von aßt sich wie folgt zeigen: LiA (λ) l¨ ahlt. Dann gilt (A − λ · En)i · x = o, und wegen (8.4) haben Sei x ∈ LiA (λ) beliebig gew¨ wir (A − λ · En )i · (A · x) = A · (A − λ · En )i · x = o, {z } | =o
d.h., A · x ∈
LiA (λ)
gilt. Folglich ist
LiA (λ)
A-invariant.
Satz 8.3.2 Seien A ∈ K n×n , λ ein EW von A und f¨ ur ein gewisses t ∈ N gelte t Lt−1 A (λ) ⊂ LA (λ). t−1 Dann ist f¨ ur jedes b ∈ LtA (λ)\LA (λ) die Menge 13
Genauer: Jordan-Matrix; siehe Abschnitt 8.5.
(8.7)
8.3 Verallgemeinerte Eigenr¨ aume
271
B := {b, (A − λ · En ) · b, (A − λ · En )2 · b, ..., (A − λ · En )t−1 · b} l.u. und [B] ist ein A-invarianter und A-unzerlegbarer UVR von LtA (λ). Beweis.
Mit Hilfe von Lemma 4.5.3, (c) folgt aus (8.7) zun¨ achst t L1A (λ) ⊂ L2A (λ) ⊂ ... ⊂ Lt−1 A (λ) ⊂ LA (λ).
und dann (nach Lemma 4.5.3, (e)), daß B l.u. ist. F¨ ur den Beweis der A-Invarianz von [B] gen¨ ugt es, A · B ⊆ [B] zu zeigen: A · b ∈ [B] folgt aus ·b. A · b = (A − λ · En + λ · En ) · b = (A − λ · En ) · b + λ | {z } |{z} ∈B
∈[B]
Sei nun bi := (A − λ · En )i · b f¨ ur i = 1, 2, ..., t. Dann gilt (wegen b ∈ LtA (λ)) bt = o und analog zu oben folgt A · bi ∈ [B] f¨ ur i ∈ {1, ..., t − 1} aus A · bi = (A − λ · En + λ · En ) · bi = (A − λ · En ) · bi + λ · bi . {z } | {z } | =bi+1 ∈B
∈[B]
Also ist [B] A-invariant.
Es bleibt noch die A-Unzerlegbarkeit von [B] zu zeigen: Angenommen, [B] ist die direkte Summe zweier A-invarianter UVR U1 und U2 , die beide ungleich dem UVR {o} sind. Offenbar enth¨ alt U1 oder U2 ein Element t−1 (λ). (Falls dies nicht gilt, haben wir U1 ∪ U2 ⊆ Lt−1 c aus LtA (λ)\LA A (λ) und (λ), im Widerspruch zu U + U = [B] und damit U1 + U2 = [U1 ∪ U2 ] ⊆ Lt−1 1 2 A (λ)) = ∅.) Analog zu oben kann man dann zeigen, daß [B] ∩ (LtA (λ)\Lt−1 A c, (A − λ · En ) · c, (A − λ · En )2 · c ..., (A − λ · En )t−1 · c l.u. sind, womit sie eine Basis f¨ ur [B] bilden. O.B.d.A. sei c ∈ U1 . Wegen c1 := (A − λ · En ) · c = A · c − λ · c und A · U1 ⊆ U1 geh¨ ort dann auch c1 zu U1 . Aus c2 := (A − λ · En )2 · c = (A − λ · En ) · c1 ergibt sich analog c2 ∈ U1 . Eine Fortsetzung ¨ dieser Uberlegungen liefert B ⊆ U1 , was [B] = U1 zur Folge hat. Dies ist jedoch ein Widerspruch zur Annahme [B] = U1 ⊕ U2 und dimU2 ≥ 1. Satz 8.3.3 Seien λ ein EW von A ∈ K n×n und r(λ) wie im Satz 8.3.1 definiert. Dann ist die Menge EA (λ) := {(A − λ · En )r(λ) · x | x ∈ K n×1 } ein A-invarianter UVR von K n×1 . Außerdem gilt r(λ)
LA Beweis.
(λ) ⊕ EA (λ) = K n×1 .
ahlt. Dann existiert ein x ∈ K n×1 mit Sei y ∈ EA (λ) beliebig gew¨ y = (A − λ · En )r(λ) · x,
und es gilt wegen (8.4) und Satz 8.3.1:
(8.8)
272
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen A · y = A · (A − λ · En )r(λ) · x = (A − λ · En )r(λ) · (A · x) ∈ EA (λ). | {z } r(λ)
∈LA
(λ)
Folglich ist EA (λ) A-invariant. r(λ) r(λ) Als n¨ achstes u ¨ berlegen wir uns LA (λ)∩EA (λ) = {o}. Sei dazu y ∈ LA (λ)∩EA (λ) n×1 r(λ) mit y = (A − λ · En) · x, und es gilt beliebig gew¨ ahlt. Dann existiert ein x ∈ K (A − λ · En )r(λ) · y = o. Folglich haben wir (A − λ · En )2·r(λ) · x = o, woraus sich mit r(λ) r(λ) Hilfe von (8.6) x ∈ LA (λ) und damit y = o ergibt. Also ist EA (λ) + LA (λ) eine r(λ) r(λ) direkte Summe. Da bekanntlich dimLA (λ) = n − rg((A − λ · En ) ) ist, haben wir zum Beweis von (8.8) nur noch dimEA (λ) = rg((A − λ · En)r(λ) ) zu zeigen. Seien dazu T := (A − λ · En )r(λ) , (e1 , ..., en ) := En und x := (x1 , ..., xn )T ein beliebiges Element aus EA (λ). Dann folgt aus T · x = T · (x1 e1 + ... + xn · en ) = x1 · (T · e1 ) + ... + xn · (T · en ), daß x eine LK der Spalten von T ist. Mit Hilfe von Satz 4.3.1 folgt hieraus dimEA (λ) = rgT. Satz 8.3.4 Seien λ ein EW von A ∈ K n×n und r(λ) wie im Satz 8.3.1 definiert. Dann ist K n×1 genau dann A-unzerlegbar, wenn r(λ) = n ist. Beweis. =⇒“: Sei K n×1 A-unzerlegbar. Da laut Voraussetzung A einen EW λ ” r(λ) r(λ) besitzt, ist dimLA (λ) ≥ 1. Mit Hilfe von Satz 8.3.3 folgt hieraus dimLA (λ) = n. Angenommen, r(λ) < n. Dann muß es wegen (8.6) ein t ≤ r(λ) geben, so daß eine t−1 (λ) mindestens zwei Elemente b1 und b2 enth¨ alt. Mittels Basis f¨ ur LtA (λ) u ¨ber LA Satz 8.3.2 und Lemma 4.5.3 folgt hieraus ein Widerspruch zur A-Unzerlegbarkeit von K n×1 . (λ) ⊂ Ln ⇐=“: Sei r(λ) = n. Dann gilt Ln−1 A (λ), woraus sich mit Hilfe von Satz A ” 8.3.2 die A-Unzerlegbarkeit von K n×1 = Ln A (λ) ergibt. Lemma 8.3.5 Seien A ∈ K n×n und λ, µ ∈ K zwei verschiedene und µ, λ1 , λ2 , ..., λt ∈ K paarweise verschiedene Eigenwerte von A. Dann gilt: (a) ∀i ∈ N ∀x ∈ LiA (λ) : (A − µ · En ) · x ∈ LiA (λ).
(b) LA (λ) ∩ LA (µ) = {o}, d.h., LA (λ) + LA (µ) ist eine direkte Summe. (c) Seien LrA1 (λ1 ) + LrA2 (λ2 ) + ... + LrAt (λt ) + LsA (µ) eine direkte Summe f¨ ur gewisse r1 , ..., rt ∈ N und s ∈ N0 , wobei t ≥ 2 f¨ ur s = 0 und L0A (λ) := {o}. Dann ist auch LrA1 (λ1 ) + LrA2 (λ2 ) + ... + LrAt (λt ) + Ls+1 A (µ) eine direkte Summe. Beweis.
(a): Wegen (8.4) gilt f¨ ur alle x ∈ LiA (λ): (A − λ · En )i · ((A − µ · En ) · x)
= (A − λ · En )i · A · x − µ · (A − λ · En )i · x {z } | = A · (A − λ · En )i · x | {z } =o
= o,
d.h., (A − µ · En ) · x ∈ LiA (λ).
=o
8.3 Verallgemeinerte Eigenr¨ aume
273
(b): Sei x ∈ LA (λ) ∩ LA (µ). Dann gilt A · x = λ · x und A · x = µ · x. Folglich haben wir λ · x = µ · x beziehungsweise (λ − µ) · x = o, was wegen λ = µ nur f¨ ur x = o gelten kann. Also ist LA (λ) + LA (µ) eine direkte Summe. (c): Seien xi ∈ LrAi (λi ) (i = 1, ..., t) und y ∈ Ls+1 A (µ) sowie x1 + x2 + ... + xt + y = o. = xt = y = o zeigen k¨ onnen (siehe Lemma (c) ist bewiesen, wenn wir x1 = x2 = ... P 4.2.5). Multipliziert man die Gleichung ( ti=1 xi ) + y = o von links mit A − µ · En , so erh¨ alt man unter Verwendung von (a) und der Voraussetzung (A − µ · En )s+1 · y = o (d.h., (A − µ · En )s · ((A − µ · En ) · y) = o): o=(
t X i=1
(A − µ · En ) · xi ) + (A − µ · En ) · y . | | {z } {z } r
(8.9)
∈Ls (µ) A
∈LAi (λi )
P Da nach Voraussetzung ( ti=1 LrAi (λi )) + LsA (µ) eine direkte Summe ist, folgt aus (8.9) ∀i ∈ {1, 2, ..., t} : (A − µ · En ) · xi = o, d.h., es gilt:
∀i ∈ {1, 2, ..., t} : xi ∈ L1A (µ).
Wegen L1A (µ) ⊆ LsA (µ) ist damit xi LrAi (λi ) + LsA (µ) eine direkte Summe.
∈ LrAi (λi ) ∩ LsA (µ). Nach Voraussetzung ist Folglich gilt x1 = ... = xt = o und damit auch
y = o. Satz 8.3.6 Seien A ∈ K n×n und λ1 , ..., λt ∈ K die Eigenwerte von A (t ≥ 2). Dann ist die Summe der Eigenr¨ aume LA (λ1 ) + LA (λ2 ) + ... + LA (λt ) und die Summe der verallgemeinerten Eigenr¨ aume r(λ1 )
LA
r(λ2 )
(λ1 ) + LA
r(λt )
(λ2 ) + ... + LA
(λt )
eine direkte Summe. Beweis. Mit Hilfe von Lemma P 8.3.5, (b), (c) l¨ aßt sich leicht per Induktion zeigen, daß die Summe der Eigenr¨ aume ti=1 LA (λi ) direkt ist. Dies benutzend, folgt dann aus Lemma 8.3.5, (c) und unter Verwendung der Kommutativit¨ at von +, daß auch Pt r(λ) L (λ ) eine direkte Summe ist. i i=1 A
Abschließend untersuchen wir die Eigenr¨ aume von Matrizen aus Rn×n (bzw. Cn×n ) etwas n¨ aher. Satz 8.3.7 Seien K ∈ {R, C}, A ∈ K n×n , T
T
A·A =A ·A n×1
(8.10) bT1
und b1 ∈ K ein EV von A zum EW λ1 ∈ K mit · b1 = 1. Außerdem seien die Vektoren b2 , ..., bn ∈ K n×1 so gew¨ ahlt, daß – bez¨ uglich des Standardskalarprodukts ϕ 14 – die Menge {b1 , ..., bn } eine orthonormierte Basis f¨ ur K n×1 bildet. Dann gilt: T
(a) A · b1 = λ · b1 . 14
∀x, y ∈ K n×1 : ϕ(x, y) := xT · y
274 (b) (c) (d) (e)
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen ur K = R und unit¨ ar f¨ ur K = C. B := (b1 , ..., bn ) ist orthogonal f¨ [{b1 }] ⊕ [{b2 , ..., bn }] = K n×1 . [{b1 }] und [{b2 , ..., bn }] sind A-invariante UVRe von K n×1 . Setzt man B1 := B\{b1 } und A1 := ((A · b2 )/B1 , ..., (A · bn )/B1 ), so gilt « „ T O1,n−1 λ1 . (8.11) B ·A·B = On−1,1 A1 T
T
und A1 · A1 = A1 · A1 . Beweis. Wir beweisen obigen Satz nur f¨ ur K = C. Der Beweis f¨ ur K = R verl¨ auft analog. ¨ (a): Durch Ubergang zu den konjugiert komplexen Zahlen folgt aus (8.10) die GleiT chung A · AT = AT · A. Setzt man y := A · b1 − λ · b1 , so rechnet man (unter Verwendung der oben angegebenen Gleichung) leicht nach, daß ϕ(y, y) = yT · y = bT1 · AT · A · b1 − λ · bT1 · A · b1 − λ · bT1 · AT · b1 + |λ|2 · bT1 · b1 = (A · b1 − λ · b1 )T · (A · b1 − λ · b1 ) gilt. Wegen der positiven Definitheit von ϕ und der Voraussetzung A · b1 − λ · b1 = o folgt hieraus y = o, womit (a) gezeigt ist. (b) folgt aus Satz 7.3.1 und (c) aus der Konstruktion der Menge B. (d): Nach Voraussetzung gilt A · b1 = λ1 · b1 . Folglich ist [{b1 }] A-invariant. Die A-Invarianz des UVRs [{b2 , ..., bn }] = [{b1 }]⊥ ergibt sich aus (a) wie folgt: F¨ ur beliebig gew¨ ahltes x ∈ [{b1 }]⊥ ist T
T
bT1 · (A · x) = bT1 · (A · x) = (A · b1 ) · x = λ · (bT1 · x) = 0, | {z } | {z } =0
λ·b 1
womit A · x ∈ [{b1 }]⊥ .
(e): Die Gleichung (8.11) ist eine Folgerung aus (d), Lemma 8.1.2 und Lemma 8.1.3. T T Setzt man D := B · A · B, so folgt aus (8.11), B · B = En und (8.10) ! |λ1 |2 O1,n−1 T D ·D = T On−1,1 A1 · A1 T
T
T
T
T
(8.10)
T
= (B · A · B) · (B · A · B) = B · A · A · B = BT · A · A · B = D·D = T
T
|λ1 |2 O1,n−1 T On−1,1 A1 · A1
was A1 · A1 = A1 · A1
T
ergibt.
!
,
8.3 Verallgemeinerte Eigenr¨ aume
275
Mit Hilfe des obigen Satzes k¨ onnen wir jetzt eine weitere notwendige und hinreichende Bedingung f¨ ur die Diagonalisierbarkeit einer Matrix u ¨ ber dem K¨ orper R oder C beweisen, aus der sich unmittelbar die L¨osbarkeit des ersten und zweiten Problems aus Abschnitt 8.1 f¨ ur symmetrische und hermitische Matrizen ergibt. Satz 8.3.8 Seien K ∈ {R, C}, A ∈ K n×n , {λ1 , ..., λn } ⊂ K und ⎛ ⎞ λ1 0 . . . 0 ⎜ 0 λ2 . . . 0 ⎟ ⎟ D := ⎜ ⎝ . . ... 0 ⎠. 0 0 . . . λn Dann gilt:
(a) Es existiert genau dann eine regul¨are Matrix B ∈ K n×n mit den EigenT T schaften B−1 = B und B · A · B = D, wenn T
(α) A · A = A · A
T
und
(β) |A − x · En | = (λ1 − x) · (λ2 − x) · ... · (λn − x) gilt. (b) Sind K = R und A symmetrisch, so existiert eine orthogonale Matrix B und eine gewisse Diagonalmatrix D ∈ Rn×n mit BT · A · B = D, wobei die in der Hauptdiagonalen von D stehenden Werte λ1 , ..., λn gerade die EWe von A sind. (c) Sind K = C und A hermitisch, so existiert eine unit¨are Matrix B und T eine gewisse Diagonalmatrix D ∈ Cn×n mit B · A · B = D, wobei die in der Hauptdiagonalen von D stehenden Werte λ1 , ..., λn gerade die EWe von A sind. Beweis. (a): O.B.d.A. sei K = C. T T =⇒“: F¨ ur eine unit¨ are Matrix B sei B ·A ·B = D. Dann gilt A = B·D·B ” T T T T und – wie man leicht nachpr¨ uft – A · A = B · D · D · B sowie A · A = T T T T B · D · D · B . Wegen D · D = D · D folgt hieraus (α). (β) ergibt sich unmittelbar aus unserer Voraussetzung und Lemma 8.1.1. ⇐=“: Wir beweisen die Behauptung durch vollst¨andige Induktion u ¨ber n. ” (I) F¨ ur n = 1 ist B = (1)1,1 und die Behauptung trivial. (II) Angenommen, die Behauptung ist f¨ ur (n − 1, n − 1)-Matrizen mit fixiertem n ∈ N\{1} und den entsprechenden Eigenschaften (α) und (β) richtig. Erf¨ ulle nun A ∈ Cn×n die Bedingungen (α) und (β). Wegen (β) besitzt A die n EWe λ1 , ..., λn (Vielfachheiten mitgez¨ ahlt). Zum EW λ1 sei x1 ∈ Cn×1 \{o} ein zugeh¨ origer EV.
276
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Der Vektor x1 l¨ aßt sich durch Vektoren x2 , . . . , xn zu einer Basis f¨ ur Cn×1 erg¨ anzen, aus denen durch Anwendung des Schmidtschen ONV eine (bez. Standardskalarprodukt) orthonormierte Basis b1 (= (1/"x1 ") · x1 ), b2 , . . . , bn f¨ ur Rn×1 berechenbar ist. Die aus diesen Vektoren bildbare Matrix B1 := (b1 , b2 , . . . , bn ) erf¨ ullt die Voraussetzungen von Satz 8.3.7 und mit Hilfe dieses Satzes erh¨ alt man T λ1 O1,n−1 B1 · A · B1 = , On−1,1 A1 wobei die Matrix A1 des Typs (n − 1, n − 1) wegen des Satzes 8.3.7, (e) die T T ullt und wegen des Satzes 8.2.2 offenbar die Gleichung A1 · A1 = A1 · A1 erf¨ EWe λ2 , ..., λn hat. Nach Annahme existiert f¨ ur A1 eine unit¨are Matrix B2 mit ⎛ ⎞ λ2 0 . . . 0 ⎜ 0 λ3 . . . 0 ⎟ T ⎟ B2 · A1 · B2 = ⎜ ⎝ ............ ⎠. 0 0 . . . λn W¨ ahlt man nun
B3 :=
1 On−1,1
O1,n−1 B2
,
so ist diese Matrix unit¨ ar. Demzufolge ist B := B1 · B3 als Produkt unit¨arer Matrizen auch unit¨ ar, und man rechnet leicht nach, daß diese Matrix die im Satz angegebene Eigenschaft besitzt. (b), (c): Offenbar erf¨ ullt eine Matrix A, die symmetrisch oder hermitisch ist, die Bedingung (α) aus (a). Die Bedingung (β) ist f¨ ur K = C wegen des Fundamentalsatzes der Algebra f¨ ur alle Matrizen aus Cn×n erf¨ ullt. F¨ ur K = R und symmetrische Matrizen aus Rn×n gilt (β) wegen Satz 8.2.9 ebenfalls. Damit sind die Aussagen (b) und (c) Folgerungen aus (a). Es sei noch bemerkt, daß im nachfolgenden Abschnitt 8.4 f¨ ur eine beliebige symmetrische Matrix A ein effektives Berechnungsverfahren einer Matrix B uhrt angegeben wird, das A mittels BT · A · B in eine Diagonalmatrix u ¨ berf¨ und sich von dem aus dem obigen Beweis ablesbarem Verfahren wesentlich unterscheidet. Zun¨ achst jedoch eine Verbeserung des Satzes 8.3.8 f¨ ur K = R. Satz 8.3.9 Die Matrix A ∈ Rn×n besitze die Eigenschaft (a) aus Satz 8.3.8. Dann existiert eine orthogonale Matrix B, die mittels BT ·A·B die Matrix A in eine Quasi-Diagonalform u uhrt, wobei die K¨astchen dieser Diagonalform ¨ berf¨ entweder die Gestalt (λ)1,1 oder die Gestalt a b −b a
8.3 Verallgemeinerte Eigenr¨ aume
277
haben, wobei λ ∈ R ein EW von A und a + b · i ∈ C\R eine komplexe Nullstelle des charakteristischen Polynoms von A ist.15 Beweis. Der Satz l¨ aßt sich ¨ ahnlich wie Satz 8.3.8, (a) durch vollst¨andige Induktion u ur n = 1 ist trivial. An¨ ber n beweisen. Der Induktionsanfang f¨ genommen, unser Satz gilt f¨ ur alle Matrizen A ∈ Rm×m mit m ≤ n − 1 und fixiertem n, die (α) aus Satz 8.3.8 erf¨ ullen. Sei nun A ∈ Rn×n . Besitzt A einen reellen Eigenwert, so kann man analog zum Beweis von Satz 8.3.8, (a) weiter verfahren. Es bleibt also nur noch der Fall zu untersuchen, bei dem das charakteristische Polynom keine einzige reelle Nullstelle besitzt. Sei dazu λ := a + b · i eine Nullstelle von |A − x · En | in C\R. Dann ist auch λ = a − b · i eine Nullstelle von |A − x · En |. Unser n¨achstes Ziel ist die Konstruktion von zwei (bez¨ uglich Standardskalarprodukt in Rn×1 ) orthonorn×1 mierten Vektoren c1 , c2 ∈ R mit den Eigenschaften A · c1 = a · c1 − b · c2 , A · c2 = b · c1 + a · c2 .
(8.12)
Wir konstruieren diese Vektoren mit Hilfe von zwei (bez¨ uglich des Standardskalarprodukts ϕ in Cn×1 ) orthonormierten Vektoren aus Cn×1 . Nach Voraussetzung existiert ein EV b1 ∈ Cn×1 zum EW λ, von dem wir o.B.d.A. auch bT1 · b1 = 1 voraussetzen k¨ onnen, d.h., b1 ist bez¨ uglich ϕ normiert. Dann gilt ¨ A·b1 = λ·b1 , und durch Ubergang zu den konjugiert komplexen Zahlen erh¨alt man A · b1 = λ · b1 , da wir A ∈ Rn×n vorausgesetzt haben. Also ist b1 ein T T EV zum EW λ von A in Cn×1 . Wegen ϕ(b1 , b1 ) = b1 · b1 = (b1 · b1 )T = ϕ(b1 , b1 ) = 1 ist b1 normiert. Aus λ · ϕ(b1 , b1 ) = λ · bT1 · b1 = (λ · b1 )T · b1 = (A · b1 )T · b1 = bT1 · (AT · b1 )
8.3.7,(a)
=
bT1 · (λ · b1 )
= λ · ϕ(b1 , b1 ) und λ = λ folgt ϕ(b1 , b1 ) = 0. Also sind die Vektoren b1 und b1 bez¨ uglich ϕ ¨ orthonormiert. Wie man leicht nachpr¨ uft (UA), sind dann die beiden Vektoren √ c1 := √12 · (b1 + b1 ) = 2 · Re b1 , √ c2 := √12·i · (b1 − b1 ) = 2 · Im b1 aus Rn×1 orthonormiert, und sie erf¨ ullen die Gleichungen aus (8.12). Erg¨anzt man nun die Vektoren c1 , c2 durch die Vektoren c3 , ..., cn zu einer orthonormierten Basis von Rn×1 , so ist [{c3 , ..., cn }] ein A-invarianter UVR und die Matrix C := (c1 , ..., cn ) hat wegen (8.12) die Eigenschaft 15
Bekanntlich ist dann auch a − b · i eine Nullstelle des charakteristischen Polynoms von A.
278
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
⎛
a b 0 ... 0 ⎜ −b a 0 ... 0 ⎜ BT · A · B = ⎜ ⎜ 0 0 d11 ... d1,n−2 ⎝ ......................... 0 0 dn−2,1 ... dn−2,n−2
⎞
⎟ ⎟ ⎟, ⎟ ⎠
wobei man auf die Matrix (dij )n−2,n−2 die Induktionsannahme anwenden kann. Die oben kurz geschilderten Beweisschritte verlaufen damit analog zu den Beweisen der S¨ atze 8.3.7 und 8.3.8. Ausf¨ uhrlich u ¨ berlege man sich dies ¨ als UA. Satz 8.3.10 Es sei A eine symmetrische (bzw. hermitische) (n, n)-Matrix und λ1 , λ2 zwei verschiedene EWe von A mit den zugeh¨origen EVen x1 , x2 . Dann gilt xT1 · x2 = 0 (bzw. xT1 · x2 = 0). Mit anderen Worten: LA (λ1 ) ⊥ LA (λ2 ) bez. Standardskalarprodukt. Beweis. gen gilt:
Sei zun¨ achst A ∈ Rn×n symmetrisch. Nach unseren VoraussetzunA · x1 = λ1 · x1 und A · x2 = λ2 · x2 .
Multipliziert man von links die erste dieser Gleichungen mit xT2 und die zweite mit xT1 , so erh¨ alt man und
xT2 · A · x1 = λ1 · (xT2 · x1 ) = λ1 · (xT1 · x2 ) xT1 · A · x2 = λ2 · (xT1 · x2 ).
Da xT2 · A · x1 eine (1, 1)-Matrix ist und außerdem A als symmetrisch vorausgesetzt wurde, haben wir xT2 · A · x1 = (xT2 · A · x1 )T = xT1 · AT · x2 = xT1 · A · x2 . Mit Hilfe der oben hergeleiteten Gleichungen folgt hieraus λ1 · (xT1 · x2 ) = λ2 · (xT1 · x2 ),
was (wegen λ1 = λ2 ) nur f¨ ur xT1 · x2 = 0 gelten kann. Den Fall A hermitisch“ beweist man analog. ” Satz 8.3.11 (mit Definitionen) Es sei A eine symmetrische (oder hermitische) (n, n)-Matrix und λ ein EW von A. Außerdem bezeichne µa (λ) die Vielfachheit der Nullstelle λ des charakteristischen Polynoms |A − λ · E| = 0 und sei µg (λ) := dim LA (λ). (µa (λ) heißt algebraische Vielfachheit von λ und µg (λ) wird geometrische Vielfachheit von λ genannt.) Dann gilt
¨ 8.4 Uberf¨ uhrung von symmetrischen Matrizen in Diagonalgestalt
279
µa (λ) = µg (λ). Mit anderen Worten: Zu einem Eigenwert einer symmetrischen (oder hermitischen) Matrix mit der Vielfachheit t gibt es genau t linear unabh¨angige Eigenvektoren. Beweis. Wir beweisen den Satz hier nur f¨ ur symmetrische Matrizen. Der Beweis f¨ ur hermitische Matrizen verl¨ auft analog. Nach Satz 8.3.8 findet man f¨ ur A eine orthogonale (n, n)-Matrix B mit ⎛ ⎞ λ1 0 . . . 0 ⎜ 0 λ2 . . . 0 ⎟ ⎟ BT · A · B = ⎜ ⎝ . . . . . . . . . . . . ⎠ (=: D), 0 0 . . . λn
wobei die Elemente der Hauptdiagonalen von D die EW von A sind. Folglich ist A zu D ¨ ahnlich, und A und D haben nach Satz 8.2.2 die gleichen EWe. Wegen Satz 3.3.3 (S. 142) gilt außerdem rg(A − λ · E) = rg(B−1 · (A − λ · E) · B). Unsere Behauptung folgt dann hieraus unter Verwendung von µg (λ) = dim LA (λ) = n − rg(A − λ · E), B−1 (A − λ · E) · B = D − λ · E, rg(D − λ · E) = n − µa (λ).
¨ 8.4 Uberf u ¨hrung von symmetrischen Matrizen in Diagonalgestalt Eine Folgerung aus den S¨ atzen 8.2.9, 8.3.8, 8.3.10 und 8.3.11 ist das folgende Verfahren zur Berechnung einer orthogonalen Matrix B, die eine vorgegebene symmetrische Matrix A ∈ Rn×n mittels BT · A · B in eine Diagonalmatrix u uhrt: ¨berf¨ (a) Man bestimme die EWe von A: λ1 . . . λ1 λ2 . . . λ2 .. . . .. λr . . . λr ...... t1 t2 tr
(t1 + t2 + . . . + tr = n; λ1 , . . . , λr paarweise verschieden). (Daß es genau n reelle EW gibt (Vielfachheiten mitgez¨ahlt) folgt aus Satz 8.2.9.) (b) Zu jedem EW λi mit der Vielfachheit ti (i = 1, . . . , r) berechne man ti l.u. EVen. (Die Existenz dieser Vektoren folgt aus Satz 8.3.11.) Sind dies die Vektoren
280
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
. . .. x1 , . . . , xtr , a1 , . . . , at1 b1 , . . . , bt2 .. ...... ∈ LA (λ1 ) ∈ LA (λ2 ) ∈ LA (λr )
so gilt nach Satz 8.3.10 bez. des Standardskalarproduktes: ai ⊥ bj , . . . , ai ⊥ xj , . . . , bi ⊥ xj , . . . (c) Man orthonormiere die EV gruppenweise“ (d.h., man bestimme f¨ ur ” LA (λi ), i = 1, . . . , r) jeweils (bez. Standardskalarprodukt) eine orthonormierte Basis). Man erh¨ alt auf diese Weise n orthonormierte EVen e1 , e2 , . . . , en zu den EWen von A, die die Spalten der gesuchten Matrix B bilden: B := (e1 , e2 , . . . , en ). (Siehe dazu auch Satz 8.1.4.)
Beispiele (1.) Sei
⎛
⎞ 2 −1 2 A = ⎝ −1 2 −2 ⎠ . 2 −2 5
alt man, daß λ1 = 1 ein zweifacher EW und Aus |A − λ · E3 | = 0 erh¨ λ2 = 7 ein einfacher EW von A ist. Die zugeh¨ origen EVen berechnen sich aus den LGS (A − E3 ) · x = o und (A − 7 · E3 ) · x′ = o. Die L¨ osungen des ersten LGS lassen sich durch ⎛ ⎞ ⎛ ⎞ 1 −2 x = t1 · ⎝ 1 ⎠ +t2 · ⎝ 0 ⎠ 0 1 =:a1
=:a2
und die des zweiten LGS durch
⎛
⎞ 1 x′ = t · ⎝ 1 ⎠ −1 =:b
(t1 , t2 , t ∈ R) beschreiben. Zwecks Ermittlung einer orthogonalen Matrix B mit der Eigenschaft
¨ 8.4 Uberf¨ uhrung von symmetrischen Matrizen in Diagonalgestalt
⎛
281
⎞
1 0 0 BT · A · B = ⎝ 0 1 0 ⎠ 0 0 7
haben wir nach dem Schmidtschen ONV die Vektoren a1 , a2 (bez. Standardskalarprodukt) zu orthonormieren und den Vektor b nur zu normieren. Es gilt: ⎛ ⎞ 1 √ e1 = (1/"a2") · a1 = (1/ 2) · ⎝ 1 ⎠ , 0 ⎛ ⎞ ⎛ ⎛ ⎞ ⎞ 1 −2 −1 ⎝ 1 ⎠ = ⎝ 1 ⎠, b2 = a2 − ϕ(a2 , e1 ) · e1 = ⎝ 1 ⎠ − −2 2 · 0 0 1 ⎛ ⎞ −1 √ e2 = (1/"b2") · b2 = (1/ 3) · ⎝ 1 ⎠ , 1 ⎛ ⎞ 1 √ e3 = (1/"b") · b = (1/ 6) · ⎝ −1 ⎠ . 2
Folglich leistet
√ √ ⎞ √ 1/√2 −1/√3 1/√6 B = ⎝ 1/ 2 1/√3 −1/√6 ⎠ 0 1/ 3 2/ 6 ⎛
das Gew¨ unschte. (2.) Bezeichne T die Menge aller Punkte X, deren Koordinaten (bez. eines kartesischen Koordinatensystems S) x1 , x2 der Gleichung √ 7x21 + x22 + 2 · 7 · x1 · x2 = 1 bzw. (x1 , x2 ) ·
5
√ 6 x1 7 7 √ · =1 7 1 x2
gen¨ ugen. Gibt es ein kartesisches Koordinatensystem S ′ := (A; e′1 , e′2 ) mit λ1 0 ·X/S ′ = 1 XT ′ · /S 0 λ2 =: D
(X T ′ = (x′1 , x′2 ))? Mit anderen Worten (siehe S. 192): Gibt es eine or/S thogonale Matrix B mit X/S = B · X/S ′ und BT · A · B = D? Nach dem obigen Verfahren l¨ aßt sich B wie folgt mit Hilfe der EWe und EVen von A ermitteln:
282
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Aus
7 − λ √7 √ = 7 − 8λ + λ2 − 7 = λ2 − 8λ 7 1 − λ
ergeben sich f¨ ur A die EWe λ1 = 8 und λ2 = 0. Die EVen zum EW 8 von A erh¨ alt man als L¨ osungen = o des LGS √ 7 x=s· 1
(A − 8 · E) ·x = o : √ −1 7 √ 7 −7
(s = 0).
Die EVen zum EW 0 von A sind dann die nichttrivialen L¨osungen von (A − 0 · E) ·x = o : √ √7 7
x=t·
7 0
1 √ − 7
(t = 0).
Normieren der EVen (7, 1)T und (1, −7)T von A liefert: 6 5√ √ 7 1 √ , B = (1/ 8) · 1 − 7 womit die Kurve T auch durch die 8 ′ ′ (x1 , x2 ) · 0 bzw.
Gleichung ′ 0 x1 · =1 x′2 0 2
8x′1 = 1
beschrieben werden kann. Aus dieser Beschreibung folgt dann unmittelbar, daß T sich aus zwei parallelen Geraden zusammensetzt. Das eben behandelte Beispiel wird im Kapitel 9 verallgemeinert, um sogenannte Hyperfl¨ achen zweiter Ordnung zu klassifizieren.
8.5 Jordansche Normalformen Die Hauptergebnisse dieses Abschnittes beziehen sich auf einen K¨ orper K, in dem andig in das charakteristische Polynom einer jeden Matrix A ∈ K n×n (n ∈ N) vollst¨ Linearfaktoren zerf¨ allt. Dies ist z.B. f¨ ur K = C der Fall. Ziel dieses Abschnittes ist es, herauszufinden, ob es f¨ ur den Fall, bei dem eine Matrix are Matrix A ∈ K n×n nicht diagonalisierbar ist, nicht doch noch eine gewisse regul¨ oglichst einfacher Bauart“ ist. B ∈ K n×n existiert, so daß B−1 · A · B von m¨ ” Einfach bedeutet hier (mit Blick auf sp¨ atere Anwendungen), daß m¨ oglichst viele −1 Elemente in B · A · B u ¨ ber und unter der Hauptdiagonalen 0 sind. Wir beginnen mit Bezeichnungen f¨ ur gewisse Matrizen, die nachfolgend eine Rolle spielen.
8.5 Jordansche Normalformen
283
Definitionen •
•
Eine Matrix der Form (λ)1,1 oder der Form 0 λ 1 0 0 ... 0 0 0 B 0 λ 1 0 ... 0 0 0 B B 0 0 λ 1 ... 0 0 0 B B .................... B B 0 0 0 0 ... λ 1 0 B @ 0 0 0 0 ... 0 λ 1 0 0 0 0 ... 0 0 λ
1
C C C C C ∈ K n×n C C C A
f¨ ur n ∈ N \ {1} heißt elementare Jordan-Matrix16 mit dem Eigenwert λ (kurz: Jordan-K¨ astchen) und wird nachfolgend mit Jn (λ) bezeichnet. Ist Jni (λi ) eine elementare Jordan-Matrix des Typs ni × ni (i = 1, ..., r) mit dem Eigenwert λi , so nennt man die Matrix, die sich wie folgt aus den Untermatrizen Jni (λi ) und passend gew¨ ahlten Nullmatrizen Oni ,nj ∈ K ni ×nj aufbaut: 1 0 On1 ,n3 ... On1 ,nr−1 On1 ,nr Jn1 (λ1 ) On1 ,n2 B On2 ,n1 Jn2 ( λ2 ) On2 ,n3 ... On2 ,nr−1 On2 ,nr C C B B ........................................................ C C B @ Onr−1 ,n1 Onr−1 ,n2 Onr−1 ,n3 ... Jnr−1 (λr−1 ) Onr−1 ,nr A Onr ,n1 Onr ,n2 Onr ,n3 ... Onr ,nr−1 Jnr (λr ) (∈ K (n1 +...+nr )×(n1 +...+nr ) ),
•
eine Jordan-Matrix. (Man beachte, daß die λ1 , ..., λr nicht alle paarweise verschieden sein m¨ ussen!). are Matrix B ∈ K n×n und eine Existiert zu einer Matrix A ∈ K n×n eine regul¨ gewisse Jordan-Matrix J mit B−1 · A · B = J, so heißt J eine Jordansche Normalform von A.
Einige Eigenschaften von Jordan-Matrizen sind zusammengefaßt im Lemma 8.5.1 Sei J ∈ K n×n eine Jordan-Matrix mit |J − x · En | = (λ1 − x)α1 · (λ2 − x)α2 · ...(λt − x)αt , wobei die λ1 , ..., λt paarweise verschieden seien. Außerdem bezeichne jq,k die Anzahl der in J vorkommenden Matrizen Jq (λk ) (q ∈ N, k ∈ {1, 2, ..., t}). Ferner seien die Zahlen sk ∈ N so festgelegt, daß jsk ,k = 0, jedoch jq,k = 0 f¨ ur alle q ≥ sk + 1 ist. Dann gilt: Pk q · jq,k f¨ ur alle k ∈ {1, ..., t}; (a) αk = sq=1 P k −i (b) rg(J − λk · En )i = n − αk + sl=1 l · ji+l,k f¨ ur alle i ∈ {1, 2, ..., sk − 1} und ur alle m ≥ sk , wobei k ∈ {1, 2, ..., t}; rg(J − λk · En )m = n − αk f¨ (c) Bei Vorgabe von n, λ1 , ..., λt , α1 , ..., αt und von den Zahlen rg(J − λk · En )i f¨ ur alle k ∈ {1, ..., t} und alle i ∈ {1, 2, ..., n − 1}, sind die Zahlen jq,k f¨ ur alle q ∈ N und alle k ∈ {1, ..., t} aus den unter (a) und (b) angegebenen Gleichungen auf eindeutige Weise berechenbar. 16
Benannt nach dem franz¨ osischen Mathematiker Marie Ennemond Camille Jordan (1838–1922). Jordan hat fundamentale Beitr¨ age zur Analysis, Gruppentheorie und Topologie geleistet.
284
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
ochstens durch (d) Eine zu J ¨ ahnliche Matrix J′ ∈ K n×n unterscheidet sich von J h¨ die Reihenfolge der in J vorkommenden elementaren Jordan-Matrizen. ¨ Beweis. (a) und (b) rechnet man leicht nach (UA!). (c): Wegen (b) gilt rg(J − λk · En )1 > rg(J − λk · En )2 > ... > rg(J − λk · En )αk −1 sowie rg(J − λk · En )m = n − αk f¨ ur alle m ≥ sk . Hieraus lassen sich zun¨ achst die Zahlen sk f¨ ur alle k ∈ {1, ..., t} berechnen. Ist sk = 1, so gilt offenbar j1,k = αk und jm,k = 0 f¨ ur alle m ≥ 2. Im Fall sk ≥ 2 gilt jm,k = 0 f¨ ur alle m ≥ sk + 1 und die ur q = 1, ..., sk lassen sich aus dem LGS Zahlen jq,k f¨ Psk q=1 q · jq,k = αk , Psk −i i (i ∈ {1, 2, ..., sk − 1}), l=1 l · ji+l,k = rg(J − λk · En ) − n + αk das wegen der Regularit¨ at der Koeffizientenmatrix genau eine L¨ osung besitzt, berechnen. ahnliche Jordan-Matrizen aus K n×n , so haben sie nach Lemma (d): Sind J und J′ ¨ 8.1.1, (a) das gleiche charakteristische Polynom und nach Lemma 8.1.1, (b) stimmen ur alle i ∈ N u die R¨ ange der Matrizen rg(J − λk · En )i und rg(J′ − λk · En )i f¨ ¨berein. Folglich ergibt sich (d) aus (c). Lemma 8.5.2 Seien A ∈ K n×n , λ ∈ K und B := (b1 , ..., bn ) ∈ Krn×n . Außerdem sei B−1 · A · B = Jn (λ). Dann gilt: (a) |A − x · En | = (λ − x)n , d.h., λ ist der EW von A mit der Vielfachheit n. (b) ∀i ∈ {1, ..., n − 1} : bi = (A − λ · En )n−i · bn . (c) (A − λ · En )n−1 = On,n und (A − λ · En )n = On,n .
Beweis. (a): Offenbar gilt |Jn (λ) − x · En | = (λ − x)n . (a) folgt damit aus Satz 8.2.2. (b): Aus B−1 · A · B = Jn (λ) folgt mit Hilfe von Lemma 8.1.2 A · b1 = λ · b1 , A · b2 = b1 + λ · b2 , A · b3 = b2 + λ · b3 , ........................... A · bn−1 = bn−2 + λ · bn−1 A · bn = bn−1 + λ · bn . Folglich ist b1 ∈ L1A (λ) und man erh¨ alt die Behauptung (b), indem man obige Gleichungen (mit der letzten Gleichung beginnend) etwas umformt und die bereits abgeleiteten Gleichungen benutzt: bn−1 = (A − λ · En ) · bn ,
bn−2 = (A − λ · En ) · bn−1 = (A − λ · En )2 · bn , ................................................ b2 = (A − λ · En ) · b3 = (A − λ · En )n−2 · bn , b1 = (A − λ · En ) · b2 = (A − λ · En )n−1 · bn .
8.5 Jordansche Normalformen
285
(c): Man rechnet leicht nach, daß (Jn (λ) − λ · En)n−1 = On,n und (Jn (λ) − λ · En)n = ahnliche Matrizen sind, sind nach On,n gilt. Da Jn (λ) und A nach Voraussetzung ¨ Lemma 8.1.1, (b) die R¨ ange der Matrizen (A − λ · En )n und (J − λ · En )n gleich. Wegen rg(J − λ · En )n = 0 ist damit (A − λ · En )n = On,n . Analog kann man dann auch (A − λ · En )n−1 = On,n zeigen. Satz 8.5.3 Seien A ∈ K n×n , λ ∈ K und r(λ) wie im Satz 8.3.1 definiert. Dann sind folgende Aussagen ¨ aquivalent: (a) A ist zu Jn (λ) ¨ ahnlich. (b) Es gilt |A − x · En| = (λ − x)n, (A − λ · En)n−1 = On,n und (A − λ · En)n = On,n . (c) λ ist EW von A und r(λ) = n. Beweis. (a) =⇒ (b)“ folgt aus Lemma 8.5.2. ” (b) =⇒ (c)“ ergibt sich aus den Eigenschaften der verallgemeinerten Eigenr¨ aume ” (siehe Satz 8.3.1). Wir haben also nur noch (c) =⇒ (a)“ zu zeigen. ” (λ) ⊂ Ln Sei also λ EW von A und r(λ) = n. Dann gilt Ln−1 A (λ) und nach Satz A n−1 n 8.3.2 sind f¨ ur jedes b ∈ LA (λ)\LA (λ) die Vektoren b1 := (A − λ · En )n−1 · b, b2 := (A − λ · En )n−2 · b, ..., bn−1 := (A − λ · En ) · b, bn := b l.u.. Sei B := (b1 , ..., bn ). Man rechnet nun nach, daß B−1 · A · B = Jn (λ) gilt (siehe dazu auch den Beweis von Lemma 8.5.2, (b)). Satz 8.5.4 Sei A ∈ K n×n eine Matrix, deren charakteristisches Polynom vollst¨ andig in Linearfaktoren zerf¨ allt. Dann gilt: (a) A ist zu einer gewissen Jordan-Matrix ¨ ahnlich. (b) Die zu A a ¨hnliche Jordan-Matrix J ist bis auf die Reihenfolge der in J auftretenden Jordan-K¨ astchen eindeutig bestimmt. Beweis. (a): Wir beweisen (a) durch vollst¨ andige Induktion u ¨ ber n. (I) F¨ ur n = 1 ist unsere Behauptung offensichtlich. (II) Angenommen, unser Satz ist f¨ ur alle Matrizen A′ ∈ K m×m , deren charakteristisches Polynom vollst¨ andig in Linearfaktoren zerf¨ allt, und m < n richtig. Sei nun A ∈ K n×n . Nach Voraussetzung existieren dann gewisse λ1 , ..., λt ∈ K und ahlen einen gewisse α1 , ..., αt ∈ N mit |A − λ · En | = (λ1 − λ)α1 · ... · (λt − λ)αt . Wir w¨ EW λ ∈ {λ1 , ..., λt } und erhalten nach Satz 8.3.3 die folgende Zerlegung von K n×1 in A-invariante UVRe: r(λ) (8.13) LA (λ) ⊕ EA (λ) = K n×1 .
Folgende zwei F¨ alle sind dann m¨ oglich: Fall 1: r(λ) = n. In diesem Fall folgt unsere Behauptung aus Satz 8.5.3. Fall 2: r(λ) < n. Folgende zwei F¨ alle sind dann m¨ oglich: r(λ) Fall 2.1: m := dim LA (λ) < n. Wegen (8.13) ist K n×1 in diesem Fall A-zerlegbar. Nach Satz 8.3.3 ist (8.13) eine
286
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Zerlegung von K n×1 in A-invariante UVRe. Mit Hilfe von Lemma 8.1.3 folgt hieraus, daß A zu einer Matrix der Form « „ Om,n−m A1 ′ A := On−m,m A2 ahnlich ist. Offenbar gilt |A′ − λ · En | = |A1 − λ · Em | · |A2 − λ · En−m |, womit ¨ nach Voraussetzung und Lemma 8.2.2 auch die charakteristischen Polynome von A1 und A2 vollst¨ andig in Linearfaktoren zerfallen. Nach unserer Induktionsannahme existiert damit eine regul¨ are Matrix Bi , die Ai in eine Jordan-Matrix Ji (i = 1, 2) u uhrt: B−1 · Ai · Bi = Ji . W¨ ahlt man nun ¨ berf¨ i „ « B1 Om,n−m B3 := , On−m,m B2 so gilt ′ B−1 3 · A · B3 =
„
J1 On−m,m
Om,n−m J2
«
.
Folglich ist A im Fall 2.1 zu einer Jordan-Matrix ¨ ahnlich. r(λ) Fall 2.2: dim LA (λ) = n. r(λ) Dieser Fall ist nur f¨ ur EA (λ) = {o} m¨ oglich. Da jedoch LA (λ) nach Satz 8.3.4 A-zerlegbar ist, k¨ onnen wir analog zu Fall 2.1 die Existenz einer zu A a ¨hnlichen Jordan-Matrix nachweisen. ¨ (b) folgt aus (a), der Transitivit¨ at der Ahnlichkeitsrelation und Lemma 8.5.1, (d). Es sei noch bemerkt, daß man Satz 8.5.4 auch ohne die im obigen Beweis herange¨ zogenen S¨ atze durch Ahnlichkeitstransformationen auf elementare Weise beweisen kann (siehe dazu z.B. [Hei-R 73]). Offen bleibt dabei jedoch die Begr¨ undung f¨ ur das weiter unten angegebenen Konstruktionsverfahren der Jordan-Matrizen. F¨ ur die Begr¨ undung dieses Verfahrens fehlt uns nur noch der folgende andig Satz 8.5.5 Sei A ∈ K n×n eine Matrix, deren charakteristisches Polynom vollst¨ in Linearfaktoren zerf¨ allt, d.h., es existieren gewisse paarweise verschiedene λ1 , ..., λt ∈ K und gewisse α1 , ..., αt ∈ N mit den Eigenschaften α1 + ... + αt = n und |A − x · En | = (λ1 − x)α1 · (λ2 − x)α2 · ... · (λt − x)αt .
(8.14)
Dann gilt: r(λi )
(a) ∀i ∈ {1, ..., t} : dimLA r(λ1 )
(b) LA
r(λ2 )
(λ1 ) ⊕ LA
(λi ) = αi . r(λt )
(λ2 ) ⊕ ... ⊕ LA
(λt ) = K n×1 .
Beweis. (a): Nach Satz 8.5.4 ist A zu einer gewissen Jordan-Matrix J ¨ ahnlich, d.h., es existiert eine regul¨ are Matrix B mit B−1 · A · B = J. Sei λ ∈ {λ1 , ..., λt } beliebig gew¨ ahlt und bezeichne α die Vielfachheit von λ. Dann steht wegen Satz 8.2.2 in der Hauptdiagonalen von J genau α-mal der EW λ und man rechnet leicht nach, daß rg(J − λ · En )r(λ) = n − α ist (siehe dazu auch Lemma 8.5.1). Andererseits r(λ) gilt nach Satz 8.3.1 dimLA (λ) = n − rg(A − λ · En )r(λ) . Unsere Behauptung (a) folgt damit aus der nach Lemma 8.1.1, (b) geltenden Gleichung rg(A − λ · En )r(λ) = rg(J − λ · En )r(λ) . (b) ergibt sich aus (a), Satz 8.3.6 und Lemma 4.5.1.
8.5 Jordansche Normalformen
287
Als Folgerung aus Lemma 8.5.2 und den S¨ atzen 8.1.2, 8.1.3, 8.3.1, 8.3.2, 8.3.4, 8.3.6 und 8.5.5 ergibt sich nun: Ein Verfahren zur Berechnung einer regul¨ aren Matrix B, die mittels B−1 · A · B die Matrix A ∈ Cn×n in eine JordanMatrix u uhrt ¨berf¨ are Matrix B ∈ Cn×n , die mittels B−1 · A · B eine zu A Sei A ∈ Cn×n . Eine regul¨ ahnliche Jordan-Matrix liefert, erh¨ alt man mit Hilfe des folgenden Verfahrens: ¨ (1.) Zerlegen des charakteristischen Polynoms |A − x · En | in Linearfaktoren: |A − x · En | = (λ1 − x)α1 · (λ2 − x)α2 · ... · (λt − x)αt (t, α1 , ..., αt ∈ N, λ1 , ..., λt ∈ Cn×n und die Eigenwerte λ1 , ..., λt paarweise verschieden). (2.) F¨ ur jedes λ ∈ {λ1 , ..., λt } verfahre man anschließend wie folgt:
•
Berechnen der Matrizen
A − λ · En , (A − λ · En )2 , (A − λ · En )3 , ... solange, bis ein kleinstes r(λ) mit rg(A − λ · En )r(λ) = rg(A − λ · En )r(λ)+1 •
gefunden ist. Maximal kann r(λ) gleich der Vielfachheit von λ sein. L¨ osen der r(λ) LGS mit den Matrizendarstellungen (A − λ · En ) · x = o, (A − λ · En )2 · x = o, ..., (A − λ · En )r(λ) · x = o. (Falls λ der einzige EW von A ist, gilt (A − λ · En )r(λ) = On,n .) ur die verallAus den Matrizendarstellungen der L¨ osungen sind dann Basen Gi f¨ gemeinerten Eigenr¨ aume LiA (λ) (i = 1, ..., r(λ)) abzulesen. Die verallgemeinerten Eigenr¨ aume haben die Eigenschaft r(λ)−1
L1A (λ) ⊂ L2A (λ) ⊂ ... ⊂ LA und wir setzen •
r(λ)
(λ) ⊂ LA
(λ)
mi := dim LiA (λ) = n − rg (A − λ · En )i . r(λ)
Bestimmen einer Basis Br(λ) von LA
r(λ)−1
(λ) u ¨ ber LA r(λ)−1
Br(λ) := Gr(λ) \LA
(λ) durch
(λ).
Anschließend bildet man (A − λ · En ) · Br(λ) := {(A − λ · En ) · x | x ∈ Br(λ) } und erg¨ anzt diese l.u. Menge durch die (eventuell leere) Menge Ar(λ)−1 zu einer r(λ)−1 r(λ)−2 Basis Br(λ)−1 von LA (λ) u . Dies ist unter Beachtung von Lemma ¨ ber LA 4.5.1 leicht m¨ oglich.
288
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen Als n¨ achstes bildet man die Menge (A − λ · En )2 · Br(λ) ∪ (A − λ · En ) · Ar(λ)−1 und erg¨ anzt diese Menge von l.u. Vektoren durch die (eventuell leere) Menge r(λ)−2 r(λ)−3 Ar(λ)−2 zu einer Basis Br(λ)−2 von LA (λ) u , usw. ¨ ber LA Man erh¨ alt durch B(λ) := Br(λ) ∪ Br(λ)−1 ∪ ... ∪ B1 r(λ)
eine Basis f¨ ur LA (λ), deren Elementezahl mit der Vielfachheit des Eigenwertes λu ¨ bereinstimmt. Mit Hilfe der Bezeichnungen T := A − λ · En und r := r(λ) liefert die folgende ¨ Tabelle eine Ubersicht u ¨ ber die Konstruktion der Basis B(λ): i Ui r LrA (λ) r−1 r − 1 LA (λ) r−2 r − 2 LA (λ) r−3 r − 3 LA (λ) ... ... 1 L1A (λ) •
dimUi mr mr−1 mr−2 mr−3 ... m1
Basis Bi von Ui u |Bi | ¨ ber Ui−1 Br mr − mr−1 T · Br ∪ Ar−1 mr−1 − mr−2 T2 · Br ∪ T · Ar−1 ∪ Ar−2 mr−2 − mr−3 T3 · Br ∪ T2 · Ar−1 ∪ T · Ar−2 ∪ Ar−3 mr−3 − mr−4 ......................................... ... Tr−1 · Br ∪ Tr−2 · Ar−1 ∪ ... ∪ T · A2 ∪ A1 m1
Die Elemente von B(λ) werden dann zu einer Matrix Bλ zusammengefaßt, indem man die Vektoren dieser Basis in der Reihenfolge ihres Auftretens in den Spalten (von unten nach oben gelesen!) der obigen Tabelle anordnet. Genauer: alt als erste Spalten von Bλ : Man w¨ ahlt ein a ∈ Br(λ) und erh¨ (A − λ · En )r(λ)−1 · a, (A − λ · En )r(λ)−2 · a, ..., (A − λ · En ) · a, a Falls ein b ∈ Br(λ) \{a} existiert, werden als n¨ achste Spalten von Bλ die Vektoren (A − λ · En )r(λ)−1 · b, (A − λ · En )r(λ)−2 · b, ..., (A − λ · En ) · b, b gew¨ ahlt. Existiert ein solches b nicht, w¨ ahlt man ein c ∈ Ar(λ)−1 und legt als n¨ achste Spalten von Bλ die Vektoren (A − λ · En )r(λ)−2 · c, (A − λ · En )r(λ)−3 · c, ..., (A − λ · En ) · a, c fest, usw.
(3.) Eine Matrix B mit den geforderten Eigenschaften ist dann B := (Bλ1 , Bλ2 , ..., Bλt ), f¨ ur die die Matrix B
−1
0
· A · B die Struktur
1 A(λ1 ) Oα1 ,α2 Oα1 ,α3 ... Oα1 ,αt B Oα2 ,α1 A(λ2 ) Oα2 ,α3 ... Oα2 ,αt C B C @ .................................. A Oαt ,α1 Oαt ,α2 Oαt ,α3 ... A(λt )
hat, wobei f¨ ur jedes λ ∈ {λ1 , ..., λt } in der Matrix A(λ) – unter Verwendung der Bezeichnungen aus (2.) – folgende elementare Jordan-Matrizen zum EW λ (l¨ angs der Hauptdiagonalen) stehen:
8.5 Jordansche Normalformen
289
|Br |-mal die Matrix Jr(λ) (λ), |Ar−1 |-mal die Matrix Jr(λ)−1 (λ), |Ar−2 |-mal die Matrix Jr(λ)−2 (λ), ... |A2 |-mal die Matrix J2 (λ), |A1 |-mal die Matrix J1 (λ). Beispiele (1.) Sei
0
B B A := B B @
Wie man leicht nachpr¨ uft, gilt
1 3 −1 0 0 −2 1 3 1 0 0C C 0 1 3 0 2C C. 1 0 1 3 1A 0 0 0 0 3
|A − λ · E5 | = (3 − λ)5 , womit λ = 3 der einzige EW von A ist. r(λ) ist gleich 3, da rg(A − 3 · E5 ) = 3, 0 1 −1 0 −1 0 0 B 0 0 0 0 0C B C C (A − 3 · E5 )2 = B rg((A − 3 · E5 )2 ) = 1 B 1 0 1 0 0 C, @ 0 0 0 0 0A 0 0 0 0 0
und (A − 3 · E5 )3 = O5,5 gilt. Damit sind wir in der Lage, die obige Tabelle f¨ ur unser Beispiel zu pr¨ azisieren: i Ui dimUi Basis Bi von Ui u |Bi | ¨ber Ui−1 3 L3A (3) 5 b3 1 2 L2A (3) 4 b2 := (A − 3 · E5 ) · b3 , b5 2 1 L1A (3) 2 b1 := (A − 3 · E5 )2 · b3 , b4 := (A − 3 · E5 ) · b5 2
wobei b3 ∈ C5×1 \L2A (3) und b5 ∈ L2A (3)\[L1A (3) ∪ {b2 }] noch zu bestimmen sind. Es sei bemerkt, daß man an dieser Stelle schon sieht, wie eine zu A a ¨hnliche amlich nach Satz 8.5.4 und Jordan-Matrix aussieht. Mit B := (b1 , ..., b5 ) gilt n¨ Lemma 8.5.2: 1 0 3 1 0 0 0 B0 3 1 0 0C C B −1 C B ·A·B =B B 0 0 3 0 0 C. @0 0 0 3 1A 0 0 0 0 3 Zwecks Bestimmung der Vektoren b3 und b5 haben wir das LGS (A−3·E5 )i ·x = o f¨ ur i = 1 und i = 2 zu l¨ osen. Aus der Matrizendarstellung der L¨ osungen sind dann z.B. die folgenden Beschreibungen der verallgemeinerten Eigenr¨ aume ablesbar:
290
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen 1 0 193 280 −1 0 > > > > > 6> B 0 C> >7 0C 7 6>B @ 0 A @ 1 A> 4> 5 > > > > : ; 0 0
und
Offenbar ist
280 > > >B 6> < B 6 B L2A (3) = 6 6>B @ 4> > > :
Damit erhalten wir
W¨ ahlt man nun
so ist
1 0
0 1 0 0 0
C B C B C,B C B A @
0
B B b3 := B B @ 0
B B b2 = B B @ 0
B B b5 := B B @
0 0 0 0 1
0 1 0 1 0
1 0 0 0 0
−1 0 1 0 0
1
1 0 C B C B C,B C B A @
0 0 0 1 0
1 0 C B C B C,B C B A @
0 0 0 0 1
1 93 > > C > >7 C =7 C. 7 C >7 5 A > > > ;
C C C ∈ C5×1 \L2A (3). C A
1
0
C B C B C und b1 = B C B A @
1
−1 0 1 0 0
1
C C C. C A
C C C ∈ L2A (3)\[L1A (3) ∪ {b2 }], C A 0
B B b4 := B B @
−2 0 2 1 0
1
C C C. C A
Eine regul¨ are Matrix B, die unsere Matrix A in eine Jordan-Matrix u uhrt, ¨ berf¨ ist folglich: 0 1 −1 0 1 −2 0 B 0 1 0 0 0C B C B 1 0 0 2 0 C. B C @ 0 1 0 1 0A 0 0 0 0 1
(2.) Sei
0
B B A := B B @
1 2 −1 0 0 −2 −5 2 −5 0 −6 C C 0 1 2 0 2C C. 1 0 1 5 1A 3 0 3 0 5
8.5 Jordansche Normalformen
291
Eine (mehr oder weniger) l¨ angere Rechnung ergibt |A − λ · E5 | = (2 − λ)3 · (5 − λ)2 , womit λ1 := 2 und λ2 := 5 die einzigen EWe von A sind. Wir bestimmen zun¨ achst eine Basis f¨ ur LA (λ1 ) nach dem in obigem Schritt (2.) beschriebenen Verfahren: r(λ1 ) ist gleich 3, da rg(A − 2 · E5 ) = 4, 0 1 −1 0 −1 0 0 B −18 0 −18 0 −18 C B C 1 0 1 0 0C (A − 2 · E5 )2 = B rg((A − 2 · E5 )2 ) = 3, B C, @ 6 0 6 9 6A 9 0 9 0 9 0 1 0 0 0 0 0 B −54 0 −54 0 −54 C B C (A − 2 · E5 )3 = B 0 0 0 0 0C rg(A − 2 · E5 )3 ) = 2 B C, @ 27 0 27 27 27 A 27 0 27 0 27 und r(λ1 ) nicht gr¨ oßer als 3 sein kann. Wie im ersten Beispiel k¨ onnen wir die im allgemeinen Verfahren angegebene Tabelle pr¨ azisieren: i Ui dimUi Basis Bi von Ui u ¨ ber Ui−1 |Bi | 3 L3A (2) 3 b3 1 , 2 L2A (2) 2 b2 := (A − 2 · E5 ) · b3 1 1 2 1 LA (2) 1 b1 := (A − 2 · E5 ) · b3 1 wobei b3 ∈ L3A (2)\L2A (2) noch zu bestimmen ist. ur i = 2 und i = 3 zu l¨ osen. Dazu gen¨ ugt es, die LGS (A − 2 · E5 )i · x = o f¨ Aus den Matrizendarstellungen der L¨ osungen sind dann z.B. die folgenden Beschreibungen der verallgemeinerten Eigenr¨ aume ablesbar: 193 280 1 0 −1 > 0 > > > >7 >B 1 C B 0 C> 6> = < 7 C B B C 6 B 0 C,B 1 C 7 L2A (2) = 6 C>7 6>B C B 4> >5 >@ 0 A @ 0 A> > > ; : 0 0 und
Offenbar ist
193 1 0 1 0 280 −1 > 0 −1 > > > >B >7 C> C B C B 6> 6 > 5 @ 0 A @ 0 A @ 0 A> 4> > > > > ; : 1 0 0 0
B B b3 := B B @
−1 0 0 0 1
1
C C C ∈ L3A (2)\L2A (2). C A
292
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen Damit erhalten wir
0
B B b2 = B B @
−2 −1 2 0 0
0
1
C B C B C und b1 = B B C A @
1 0 −1 0 0
1
C C C. C A
r(λ)
Als n¨ achstes haben wir eine Basis f¨ ur den Eigenraum LA (5) zu bestimmen. ¨ lautet: Da rg(A − 5 · E5 ) = 1 ist, gilt r(5) = 2 und unsere Ubersichtstabelle i Ui dimUi Basis Bi von Ui u ¨ ber Ui−1 |Bi | 2 L2A (5) 2 b5 1 , 1 L1A (5) 1 b4 := (A − 5 · E5 ) · b5 1 wobei b5 ∈ L2A (5)\L1A (5) ist. Zwecks Bestimmung von ur i = 1 und i = 2 zu l¨ osen, wobei (A − 5 · E5 )i · x = o f¨ 0 8 6 −1 0 12 B 12 9 12 0 18 B (A − 5 · E5 )2 = B B 1 −6 10 0 −12 @ 0 0 0 0 0 −9 0 −9 0 0 Man erh¨ alt hieraus z.B.
und
280 > > 6> > B @ 4> > > :
280 > > >B 6> @ 4> > > :
Hieraus folgt dann unmittelbar 0 0 B −2 B b5 := B B 0 @ 0 1
F¨ ur die Matrix
1 C C C C A
0 0 0 1 0
B B B := (b1 , ..., b5 ) = B B @
1
C C C. C A
193 > > C> >7 C=7 C 7 C>7 5 A> > > ;
1 0 C B C B C,B C B A @
und
0
0 0 0 1 0
b5 hat man die LGS
0 −2 0 0 1
193 > > >7 C> C=7 C 7. C>7 5 A> > > ; 0
B B b4 = B B @
0 0 0 1 0
1
C C C. C A
1 1 −2 −1 0 0 0 −1 0 0 −2 C C −1 2 0 0 0 C C 0 0 0 1 0 A 0 0 1 0 1
8.5 Jordansche Normalformen gilt damit
0
B B B−1 · A · B = B B @
2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
0 0 0 5 0
0 0 0 1 5
293
1
C C C. C A
Der Satz 8.5.4 zeigte, daß zu jeder Matrix A ∈ K n×n f¨ ur K = C eine a ¨hnliche Jordan-Matrix aus K n×n geh¨ ort. F¨ ur K = R gilt dieser Satz nur, wenn die Matrix A genau n reelle EWe (Vielfachheiten mitgez¨ ahlt) besitzt. Wie man im Fall, wo das charakteristische Polynom von A nicht vollst¨ andig in Linearfaktoren zerf¨ allt, eine Normalform von A in Rn×n konstruieren kann, soll Gegenstand der letzten ¨ Uberlegungen dieses Kapitels sein. Genauer: Wir werden zeigen, daß zu jeder Matrix A ∈ Rn×n eine regul¨ are Matrix B ∈ Rn×n existiert, die A mittels B−1 · A · B in eine n×n der Gestalt Matrix K ∈ R 1 0 K1 On1 ,n2 On1 ,n3 ... On1 ,nr B On2 ,n1 K2 On2 ,n3 ... On2 ,nr C C B (8.15) @ .................................. A Kr Onr ,n1 Onr ,n2 Onr ,n3 ... u uhrt, wobei jede Matrix Kj ∈ Rnj ×nj (j = 1, ..., r) entweder eine gewisse ¨ berf¨ elementare Jordan-Matrix ist oder die Form 0 1 aj bj 1 0 0 0 ... 0 0 0 0 B −bj aj 0 1 0 0 ... 0 0 0 0 C B C B 0 0 aj bj 1 0 ... 0 0 0 0 C B C B 0 0 −bj aj 0 1 ... 0 0 0 0 C B C ⋆ C Kj = Jnj (aj , bj ) := B (8.16) B ......................................... C B 0 0 0 0 0 0 ... aj bj 1 0 C B C B 0 0 0 0 0 0 ... −bj aj 0 1 C B C @ 0 0 0 0 0 0 ... 0 0 aj bj A 0 0 0 0 0 0 ... 0 0 −bj aj
f¨ ur gewisse aj , bj ∈ R hat. Die Berechnung der Spalten der Matrix B, die zu den reellen EWen von A geh¨ oren und die in (8.15) die elementaren Jordan-Matrizen liefern, verl¨ auft wie bei der Berechnung einer Jordan-Matrix f¨ ur A. Falls z ∈ C\R ein EW von A im K¨ orper C, orenden so ist auch z ein EW von A und die Konstruktion der zu diesen EWen geh¨ Spalten von B ergibt sich aus dem nachfolgenden Satz.
Satz 8.5.6 Seien A ∈ R(2·n)×(2·n) , a, b ∈ R, z := a + i · b ∈ C\R, |A − x · E2·n | = (z − x)n · (z − x)n und A ¨ ahnlich zur Matrix „ « Jn (z) On,n J2·n (z, z) := ∈ C(2·n)×(2·n) . On,n Jn (z)
294
8 Eigenwerte, Eigenvektoren und Normalformen von Matrizen
Dann gilt: (a) Es existiert eine regul¨ are Matrix B1 := (b1 , ..., b2·n ) ∈ C(2·n)×(2·n) mit B−1 1 ·A· B1 = J2·n (z, z) und die mit Hilfe der ersten n Spalten aus B bildbare Matrix B := (b1 , ..., bn , b1 , ..., bn ) ist ebenfalls regul¨ ar und hat die Eigenschaft B−1 · A · B = J2·n (z, z). (b) Bildet man mit Hilfe der Vektoren b1 , ..., bn aus (a) die Vektoren cj := bj + bj , c′j := i · (−bj + bj ) (j = 1, ..., n), so sind diese Vektoren aus R(2·n)×1 und die Matrix C := (c1 , c′1 , c2 , c′2 , ..., cn , c′n ) ⋆ (a, b). ist regul¨ ar und erf¨ ullt die Gleichung C−1 · A · C = J2·n
Beweis. Die Existenz der Matrix B1 mit B−1 1 · A · B 1 = J2·n (z, z) folgt aus Satz 8.5.4, dem Fundamentalsatz der Algebra und unseren Voraussetzungen. Setzt man alt man hieraus (unter Verwendung von Lemma 8.1.2) b0 := o, so erh¨ ∀j ∈ {1, 2, ..., n} : A · bj = bj−1 + z · bj .
(8.17)
¨ Der Ubergang zu den konjugiert komplexen Zahlen liefert aus (8.17) ∀j ∈ {1, 2, ..., n} : A · bj = bj−1 + z · bj .
(8.18) r(z)
Mit Hilfe von (8.18) u ¨ berlegt man sich leicht, daß b1 , ..., bn Vektoren aus LA (z) r(z) r(z) sind, die – da b1 , ..., bn l.u. sind – auch l.u. sind. Wegen LA (z) ∩ LA (z) = {o} (siehe Lemma 8.3.5, (b)) ist dann die Matrix B regul¨ ar und aus (8.17) und (8.18) folgt B−1 · A · B = J2·n (z, z). ¨ u (b): Offenbar ist cj = 2 · Re bj und c′j = 2 · Im bj (j = 1, ..., n). Als UA ¨ berlege man sich, daß C regul¨ ar ist17 . Die restlichen Behauptungen unseres Satzes folgen mit Hilfe von Lemma 8.1.2, (8.17) und (8.18) aus A · c j = A · bj + A · bj = bj−1 + (a + b · i) · bj + bj−1 + (a − i · b) · bj = bj−1 + bj−1 + a · (bj + bj ) − b · i · (−bj + bj )
= cj−1 + a · cj − b · c′j und
A · c′j = −i · A · bj + i · A · bj = i · (−bj−1 − (a + b · i) · bj + bj−1 + (a − i · b) · bj ) = i · (−bj−1 + bj−1 ) + a · i · (−bj + bj ) + b · (bj + bj )
= c′j−1 + a · c′j + b · cj ,
wobei c0 := c′0 := o ist.
Wie bereits oben erl¨ autert, folgt aus Satz 8.5.6 der folgende 17
Siehe dazu auch die Aufgabe A.4.8 aus Kapitel 17.
8.5 Jordansche Normalformen
295
Satz 8.5.7 Zu jeder Matrix A ∈ Rn×n existiert eine regul¨ are Matrix B ∈ Rn×n und gewisse Matrizen Kj ∈ Rnj ×nj (j = 1, ..., r) mit 1 0 K1 On1 ,n2 On1 ,n3 ... On1 ,nr B On2 ,n1 K2 On2 ,n3 ... On2 ,nr C C B−1 · A · B = B @ ................................. A. Onr ,n1 Onr ,n2 Onr ,n3 ... Kr Jede Matrix Kj ∈ Rnj ×nj (j ∈ {1, ..., r}) ist dabei entweder eine gewisse elementare Jordan-Matrix oder hat die Gestalt (8.16), wobei die Zahlen zj := aj + bj · i und zj EWe von A aus dem K¨ orper C sind.
9 Hyperfl¨ achen 2. Ordnung
9.1 Grundbegriffe Bezeichne nachfolgend Rn stets einen euklidischen n-dimensionalen Punktraum (also einen n-dimensionalen Punktraum u ¨ ber R mit Skalarprodukt). Außerdem sei S := (A; e1 , . . . , en ) ein kartesisches Koordinatensystem des Rn . Definition Die Menge T aller Punkte X ∈ Rn , deren Koordinaten x1 , . . . , xn (bez. S) der Gleichung n n i=1 j=1
αij ·xi ·xj +
n i=1
αi ·xi +α0 = 0
(∗)
(α11 , . . . , αnn , α0 , . . . , αn ∈ R) gen¨ ugen, heißt Hyperfl¨ ache 2. Ordnung. Zwecks Charakterisierung der Menge T schreiben wir kurz T :
n n i=1 j=1
αij · xi · xj +
n i=1
αi · xi + α0 = 0
Hyperfl¨ achen in R2 (∼ = R2 ) heißen auch Kurven 2. Ordnung und Hyperfl¨achen in R3 (∼ achen 2. Ordnung. = R3 ) nennt man auch Fl¨ Beispiele (1) F¨ ur n = 2 lautet (∗) α11 x21 + α12 x1 x2 + α21 x2 x1 + α22 x22 + α1 x1 + α2 x2 + α0 = 0. Speziell sind damit Geraden mit den beschreibenden Gleichungen a1 x1 + a2 x2 + a0 = 0
(a1 = 0 oder a2 = 0)
298
9 Hyperfl¨ achen 2. Ordnung
und Kreise mit den beschreibenden Gleichungen (x1 − a)2 + (x2 − b)2 = r2 (a, b, r ∈ R) Kurven 2. Ordnung. (2) Ein Beispiel f¨ ur eine Fl¨ ache 2. Ordnung ist x21 + x22 − x3 = 0, ein sogenannter Rotationsparaboloid.
Hauptziele dieses Kapitels sind: • •
Klassifikation der Hyperfl¨ achen 2. Ordnung (Insbesondere suchen wir Antwort auf die Frage: Welche Typen von Kurven und Fl¨ achen 2. Ordnung gibt es?) Herleitung von Verfahren, mit denen man feststellen kann, welches geometrische Gebilde durch eine vorgegebene Gleichung der Form (∗) beschrieben wird.
Unser L¨ osungsweg wird darin bestehen, das Koordinatensystem S mit dessen Hilfe T durch (∗) charakterisiert werden kann, durch ein (der Hyperfl¨ache angepaßtes) Koordinatensystem S ′ zu ersetzen, so daß T in Koordinaten bez. S ′ durch eine (einfachere) Gleichung der Gestalt 2
2
γ1 x′1 + . . . + γn x′n + βx′n + γ = 0 beschrieben werden kann. Aus dieser sogenannten Normalform ist dann erkennbar, um welchen Typ (etwa Gerade, Ellipse, Parabel, . . . f¨ ur n = 2) es sich bei der Hyperfl¨ ache T handelt. Um das oben angedeutete Verfahren m¨ oglichst schreib¨okonomisch behandeln zu k¨ onnen, werden wir uns zun¨ achst eine Matrizenschreibweise f¨ ur Hyperfl¨ achen 2. Ordnung u ¨ berlegen. Die Gleichung einer Kurve 2. Ordnung
9.1 Grundbegriffe
299
ax21 + bx22 + cx1 x2 + dx1 + ex2 + f = 0 kann in der Form (x1 , x2 ) ·
a c/2 c/2 b
x1 x1 · +f =0 + 2 · (d/2, e/2) · x2 x2
und die Gleichung einer Fl¨ ache 2. Ordnung ax21 + bx22 + cx23 + dx1 x2 + ex1 x3 + f x2 x3 + gx1 + hx2 + ix3 + j = 0 in der Form ⎛
⎞ ⎛ ⎛ ⎞ ⎞ a d/2 e/2 x1 x1 (x1 , x2 , x3 ) · ⎝ d/2 b f /2 ⎠ · ⎝ x2 ⎠ + 2 · (g/2, h/2, i/2) · ⎝ x2 ⎠ + j = 0 e/2 f /2 c x3 x3
aufgeschrieben werden (Beweis: Nachrechnen!). Allgemein l¨ aßt sich die Gleichung (∗) einer Hyperfl¨ache 2. Ordnung auch durch die folgende Matrizengleichung angeben: xT · A · x + 2 · bT · x + c = 0
(A = (aij )n,n ; bT = (b1 , . . . , bn ); aij = aji = (αij + αji )/2, bi = αi /2; c = α0 ). Den Ausdruck xT · A · x nennt man quadratische Form und 2 · bT · x ist die Zusammenfassung der sogenannten linearen Glieder. A wird auch Formenmatrix der quadratischen Form genannt. Hauptziel des Kapitels 9 ist der Beweis des folgenden Satzes. Satz 9.1.1 Es sei A eine symmetrische (n, n)-Matrix, bT = (b1 , . . . , bn ), S ein kartesisches Koordinatensystem des Rn und xT := (X/S )T = (x1 , . . . , xn ). Die Hyperfl¨ache 2. Ordnung T : xT · A · x + 2 · bT · x + c = 0 l¨aßt sich durch maximal zwei Koordinatentransformationen mit orthogonalen ¨ Ubergangsmatrizen (bzw. durch geeignete Wahl eines kartesischen Koordinatensystems S ′′ ) in eine der folgenden Normalformen (Ia) α1 x′′1 2 + α2 x′′2 2 + . . . + αn x′′n 2 = 0 2 2 2 (Ib) α1 x′′1 + α2 x′′2 + . . . + αn x′′n = 1 ′′ ′′ 2 ′′ 2 (II) α1 x1 + . . . + αr xr − 2xn = 0 (r < n) uberf¨ uhren. ¨ Ein Beweis dieses Satzes ist die sogenannte Hauptachsentransformation“, die ” wir im n¨ achsten Abschnitt ausf¨ uhrlich mit Beispielen behandeln werden.
300
9 Hyperfl¨ achen 2. Ordnung
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1) Wir beginnen mit einem Versuch, die linearen Glieder 2·bT ·x in der Gleichung xT ·A·x+2·bT ·x+c = 0
(1)
durch die Wahl eines anderen Koordinatenursprungs A′ bzw. durch die Koordinatentransformation x = c + x′ (x := X/S ; x′ := X/S ′ ; c := A′ ) zu beseitigen. /S Ersetzt man x in (1) durch x′ + c, so erh¨ alt man: (x′ + c)T · A · (x′ + c) + 2 · bT · (x′ + c) + c = 0 und hieraus T
T
x′ · A · x′ + x′ · A · c + cT · A · x′ + cT · A · c + 2 · bT · x′ + 2 · bT · c + c = 0. T
Da x′ · A · c eine (1,1)-Matrix ist, und wir A als symmetrisch vorausgesetzt haben, gilt T
T
x′ · A · c = (x′ · A · c)T = cT · AT · x′ = cT · A · x′ , womit sich die Summanden in unserer obige Gleichung wie folgt zusammenfassen lassen: T
x′ · A · x′ + 2 · ( cT · A + bT ) · x′ + (cT · A · c + 2 · bT · c + c) = 0. ′ T =: c = (A · c + b)
Die linearen Glieder von (1) verschwinden folglich durch die Transformation x = x′ + c genau dann, wenn A · c + b = o bzw. A · c = −b gilt. Aus unseren L¨ osbarkeitsbedingungen f¨ ur LGS ergeben sich somit zwei F¨ alle: Fall 1: rgA = rg(A, −b). In diesem Fall hat das LGS A · c = −b mindestens eine L¨osung c. Die Gesamtheit dieser L¨ osungen heißt singul¨ ares Gebilde der Hyperfl¨ ache T . Besteht das singul¨ are Gebilde nur aus einem Punkt, so wird dieser Punkt der Mittelpunkt von T genannt. Fall 2: rgA < rg(A, −b). In diesem Fall lassen sich die linearen Glieder aus der Gleichung (1) durch eine Koordinatentransformation der Form x = x′ + c nicht vollst¨ andig beseitigen.
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
301
Nachfolgend sollen nun diese zwei F¨ alle weiter studiert werden. Wir werden sehen, daß Hyperfl¨ achen, die der Bedingung von Fall 1 gen¨ ugen, durch eine weitere Koordinatentransformation in eine der Normalformen (Ia) oder (Ib) u uhrt werden k¨ onnen. F¨ ur die restlichen Hyperfl¨achen, die die Bedingung ¨ berf¨ von Fall 2 erf¨ ullen, werden dann anschließend zwei Koordinatentransformationen angegeben, die diese in eine Normalform (II) u uhren. Wir beginnen ¨ berf¨ mit Fall 1: rgA = rg(A, −b). Wie wir bereits oben begr¨ undet haben, k¨ onnen wir durch die 1. Transformation: x = x′ + c, wobei A · c = −b ist, die Gleichung (1) auf die Form T
x′ · A · x′ + c′ = 0
(2)
mit c′ = cT · A · c +2 · bT · c + c = bT · c + c bringen. = −b Als n¨ achstes werden wir die Koordinatenachsen so neu festlegen, daß die Matrix A von (2) in eine Diagonalmatrix u ¨bergeht. Genauer: Nachdem wir zun¨ achst T bez. unseres Ausgangskoordinatensystem S = (A; e1 , . . . , en ) durch die Gleichung (1) und anschließend durch Wahl eines neuen Koordinatenurache T durch (2) bez. S ′ := (A′ ; e1 , . . . , en ) chasprungs A′ die Hyperfl¨ rakterisiert haben, bestimmen wir jetzt ein kartesisches Koordinatensystem S ′′ := (A′ ; e′′1 , . . . , e′′n ) derart, daß T durch die weiter unten stehende Gleichung (3) bez. S ′′ beschrieben werden kann. Setzt man bi := e′′i /(e , . . . , e ) (i = 1, . . . , n) sowie B := (b1 , . . . , bn ), so be1
n
steht zwischen x′ := X/S ′ und x′′ := X/S ′′ nach Satz 5.2.2 (S. 192) wegen A′ ′′ = o folgender Zusammenhang: /S x′ = B · x′′ .
Ein Ersetzen von x′ in (2) durch B · x′′ liefert (B · x′′ )T · A · (B · x′′ ) + c′ = 0 bzw.
T
x′′ · (BT · A · B) · x′′ + c′ = 0.
W¨ ahlt man nun B als orthogonale Matrix, deren Spalten (bez. Standardskalarprodukt) aus orthonormierten EVen zu den EWen von A besteht, so liefert (wegen Satz 8.3.8, (b)) die sogenannte 2. Transformation: x′ = B · x′′ , einen ¨ Ubergang von (2) zu der Gleichung ⎛ ⎞ λ1 0 . . . 0 T ⎜ 0 λ2 . . . 0 ⎟ ′ ⎟ ′′ x′′ · ⎜ (3) ⎝ . . . . . . . . . . . . ⎠ · x + c = 0, 0 . . . . . . λn
302
9 Hyperfl¨ achen 2. Ordnung
wobei λ1 , . . . , λn die EWe von A sind. F¨ ur c′ = 0 liegt durch (3) eine Normalform des Typs (Ia) (siehe Satz 9.1.1) f¨ ur T vor. Ist c′ = 0, so liefert die ′ Division durch −c aus (3) eine Normalform des Typs (Ib). Also gilt der Satz 9.1.1 im Fall 1. Bevor wir uns mit dem noch zu untersuchenden Fall 2 besch¨aftigen, wollen wir uns zun¨ achst drei Beispiele zum Fall 1 ansehen. In s¨amtlichen Beispielen verwenden wir aus Abk¨ urzungsgr¨ unden dieselben Bezeichnungen wie oben. 1. Beispiel
Seien n = 2 und √ √ T1 : 2x2 + 4y 2 + 2 3 xy + 8x + 4 3 y + 7 = 0.
Die Matrizenschreibweise f¨ ur T1 lautet: 5 √ 6 √ x x 3 2 (x, y)· √ · +2·(4, 2 3)· +7 = 0. y y 3 4
(1B1 )
Da offenbar rgA = 2, liegt Fall 1 vor. Aus dem LGS A · c = −b: 5 √ 6 c1 2 −4 3 √ √ · = −2 3 3 4 c2 alt man c1 = −2 und c2 = 0. Folglich ist c′ := bT · c + 7 = (cT = (c1 , c2 )) erh¨ −8 + 7 = −1. Durch die 1. Transformation: x = c + x′ geht (1B1 ) damit in T
x′ ·A·x′ −1 = 0
(2B1 )
u ¨ ber. Zwecks Durchf¨ uhrung der 2. Transformation haben wir die EWe und EVen von A zu berechnen. Aus 2 − λ √3 √ = λ2 − 6λ − 3 = (λ − 5) · (λ − 1) = 0 3 4 − λ
ergeben sich die EW λ1 = 5 und λ2 = 1 f¨ ur A. Die EVen zum EW 5 sind die nichttrivialen L¨osungen y des LGS 5 √ 6 −3 3 1 √ (t ∈ R), ·y =o : y= t· √ 3 −1 3 und die EVen zum EW 1 die nichttrivialen L¨ osungen y von 5 √ 6 √ − 3 1 3 √ ·y=o: y=t· (t ∈ R). 3 3 1
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
303
Da die EVen zu verschiedenen EWen orthogonal zueinander sind, haben wir (zwecks Bestimmung einer orthogonalen Matrix B) zwei EVen zu verschiedenen EWen von A zu normieren. Wir erhalten 5 6 √ 1/2 − 3/2 B= √ . 3/2 1/2 Folglich u uhrt die 2. Transformation: x′ = B · x′′ die Gleichung (2B1 ) in ¨ berf¨ ′′ 5 0 x ′′ ′′ (x , y ) · −1=0 (3B1 ) · y ′′ 0 1 bzw.
2
2
5 · x′′ + y ′′ = 1.
Wir haben damit die Gleichung einer Ellipse erhalten (siehe dazu auch Abschnitt 9.3, S. 316ff), die sich im Koordinatensystem S ′′ wie folgt geometrisch darstellen l¨ aßt:
Um die konkrete Lage dieser Ellipse im Ausgangskoodinatensystem S angeben zu k¨ onnen, fassen wir unsere oben vorgenommenen Koordinatentransformationen zusammen: Aus x = c + x′ und x′ = B · x′′ ergibt sich x = c + B · x′′ bzw. (siehe Satz 5.2.2) X/S = A′ + (e′′1 /B , e′′2 /B ) · X/S ′′ , /S wobei B = (e1 , e2 ),
304
9 Hyperfl¨ achen 2. Ordnung
5 6 √ 1/2 − 3/2 −2 c= und B = √ 0 3/2 1/2 ist. Also haben wir: ′′
y
y
2
′′
x 1 2
1 1 −3
−2
−1
−1
−2
−1
−2 2. Beispiel
x
−1
−2
Seien n = 2 und T2 : 8x2 + 6xy − 14x − 12y − 4 = 0
bzw. T2 : (x, y)·
8 3 x x · +2·(−7, −6)· −4 = 0. 3 0 y y
(1B2 )
Da rgA = 2 ist, liegt Fall 1 vor. Aus A · c = −b ergibt sich cT = (2, −3), womit c′ = bT · c − 4 = 0 ist. Die 1. Transformation x = c + x′ u uhrt also (1B2 ) in ¨ berf¨ T
x′ · A · x′ = 0.
(2B2 )
Wie man leicht nachrechnet, sind λ1 = 9 und λ2 = −1 die EWe von A. Außerdem pr¨ uft man leicht nach, daß (3, 1)T ein EV zum EW 9 und (1, −3)T ein EV zum EW -1 ist. Die f¨ ur die 2. Transformation x′ = B · x′′ erforderliche orthogonale Matrix B erh¨ alt man folglich durch das Normieren dieser beiden Vektoren: 6 5 √ √ 3/ 10 1/ 10 √ √ . B= 1/ 10 −3/ 10
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
305
(2B2 ) geht damit u ¨ber in ′′ 9 0 x (x , y )· · ′′ = 0 y 0 −1 ′′
bzw.
′′
2
(3B2 )
2
9 · x′′ − y ′′ = 0
( ⇐⇒ y ′′ = 3x′′ ∨ y ′′ = −3x′′ ). Dieser Gleichung ist nun unmittelbar zu entnehmen, daß die Kurve T2 aus zwei sich schneidende Geraden besteht. Die konkrete Lage dieser Geraden im Ausgangskoordinatensystem l¨ aßt sich (wie im obigen 1. Beispiel) durch ein Zusammenfassen der Koordinatentransformationen √ 6 5 √ 3/ 10 1/ 10 2 ′′ √ √ x= c+B·x = · x′′ + −3 1/ 10 −3/ 10 und der daraus ablesbaren Lage des Koordinatenursprungs A′ und der Koordinatenachsen von S ′′ ermitteln:
3. Beispiel
Seien n = 3 und T3 : 2x2 + 2y 2 + 5z 2 − 2xy + 4xz − 4yz + 1 = 0
bzw. ⎞ ⎛ ⎞ x 2 −1 2 T3 : (x, y, z) · ⎝ −1 2 −2 ⎠ · ⎝ y ⎠ + 1 = 0. z 2 −2 5 ⎛
(1B3 )
In diesem Beispiel entf¨ allt die 1. Transformation, da in (1B3 ) keine linearen Glieder auftreten. Zwecks Durchf¨ uhrung der 2. Transformation x = B · x′ hat man die EWe von A zu berechnen. Man erh¨ alt λ1 = λ2 = 1 und λ3 = 7. Orthonormieren zugeh¨ origer EVen liefert dann die orthogonale Matrix
306
9 Hyperfl¨ achen 2. Ordnung
√ √ ⎞ √ 1/√2 −1/√3 1/√6 B = ⎝ 1/ 2 1/√3 1/√6 ⎠ 0 1/ 3 −2/ 6 ⎛
(siehe auch Beispiel (1.) von S. 279). Wir erhalten dann als Ergebnis der Transformation x = B · x′ die Gleichung: ⎛ ⎞ 1 0 0 T x′ · ⎝ 0 1 0 ⎠ · x′ + 1 = 0 0 0 7 bzw.
2
2
2
x′ + y ′ + 7 · z ′ + 1 = 0,
ullt wird. Folgdie von keinem Punkt X mit reellen Koordinaten (x, y, z)T erf¨ lich ist T3 die leere Menge. Es sei noch bemerkt, daß, falls in (1B3 ) das Absolutglied +1 durch −1 ersetzt wird, durch die so erhaltene Gleichung ein 2 2 2 Ellipsoid: x′ + y ′ + 7 · z ′ = 1 beschrieben wird. Weiter mit dem allgemeinen Beweis.
Fall 2: r := rgA < rg(A, −b). In diesem Fall hat das LGS A · c = −b keine L¨ osung c. Außerdem haben wir |A| = 0 und wegen unserer Voraussetzung r := rgA < n ist 0 ein EW mit der Vielfachheit n − r von A. Wir beginnen mit der 1. Transformation: x = B · x′ . B bezeichne dabei eine orthogonale Matrix, deren Spalten wir mit b1 , . . . , bn bezeichnen wollen. Wir u achst, daß B stets so bestimmbar ¨ berlegen uns zun¨ ist, daß durch die 1. Transformation die Gleichung (1) in eine Gleichung der Form T
T
⎛
⎞ ... 0 ... 0 .⎟ . . .. . . . . . .. ⎟ ⎟ . . . λr . . . 0 ⎟ ⎟, ......... 0 ⎟ ⎟ .. ⎟ ......... . ⎠
x′ ·D·x′ +2·b′ ·x′ +c = 0, wobei
λ1 ⎜ .. ⎜ . ⎜ ⎜ 0 D := ⎜ ⎜ 0 ⎜ ⎜ . ⎝ .. 0
T
(4)
......... 0
b′ = (b′1 , . . . , b′r , 0, . . . , 0, b′n ) mit b′n = 0 und b′i = bT · bi f¨ ur i ∈ {1, . . . , r, n}, u uhrt werden kann. Ersetzt man x in (1) durch B · x′ , so erh¨alt man die ¨ berf¨ Gleichung T x′ · (BT · A · B) · x′ + 2 · (bT · B) · x′ + c = 0.
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
307
Folglich muß B den nachfolgenden Bedingungen gen¨ ugen: ⎛ ⎞ λ1 . . . 0 . . . 0 ⎜ .. . . .. .⎟ ⎜ . . . . . . .. ⎟ ⎜ ⎟ ⎜ 0 . . . λr . . . 0 ⎟ ⎟ BT · A · B = ⎜ ⎜ 0 .......... 0 ⎟, ⎜ ⎟ ⎜ . .⎟ ⎝ .. . . . . . . . . . . .. ⎠ 0 .......... 0
d.h., b1 , . . . , br sind orthonormierte EVen zu den von 0 verschiedenen EWen von A und br+1 , . . . , bn sind orthonormierte EVen zum EW 0 von A, sowie bT · B = (bT · b1 , bT · b2 , . . . , bT · bn ) = (b′1 , . . . , b′r , 0, . . . , 0, b′n ), d.h., die EVen ullen noch die Bedingungen br+1 , . . . , bn zum EW 0 erf¨ bT · br+1 = . . . = bT · bn−1 = 0 bT · bn = 0.
und
Zusammenfassend sind also bi (i = 1, . . . , r) gewisse orthonormierte L¨osungen von (A − λi · En ) · y = o, wobei λi = 0, br+1 , . . . , bn−1 gewisse orthonormierte L¨ osungen von A A·y =o · y = o ((A, b)T · y = o) bT · y = 0 bT und bn eine L¨ osung von A · y = o, die orthogonal zu br+1 , . . . , bn−1 ist, jedoch keine L¨ osung von (A, b)T · y = o sein darf. Die Existenz solcher b1 , . . . , bn folgt f¨ ur b1 , . . . , br unmittelbar aus Satz 8.3.8 ¨ (S. 275) und f¨ ur die restlichen bj (j = r + 1, . . . , n) aus folgenden Uberlegungen: Wegen rg(A, b)T = rg(A, −b) = r + 1 besitzt das LGS (A, b)T · y = o n − r − 1 l.u. L¨ osungen a1 , . . . , an−r−1 (siehe Satz 3.4.4, S. 154). Da laut Voraussetzung dim LA (0) = n − r ist, existieren nach Satz 8.3.11 (S. 278) n − r l.u. EVen zu dem EW 0 von A, von denen einer (sagen wir an−r ) keine L¨osung von bT · y = 0 ist. Menge der L¨ osungen von A · y = o
' '
a1 , a2 , . . . , an−r−1 & &
$ $ an−r
% @ I % @ @ Menge der L¨osungen von bAT · y = o
308
9 Hyperfl¨ achen 2. Ordnung
Orthonormiert man nun der Reihe nach die Vektoren a1 , . . . , an−r , so erh¨alt man die gew¨ unschten br+1 , . . . , bn . Also l¨ aßt sich durch die erste Transformation die Gleichung (1) in die Gleichung (4) u uhren. ¨ berf¨ Das Ziel der 2. Transformation: x′ = c + x′′ ist es, in der Gleichung (4) das Absolutglied und – bis auf die n-te Variable – die linearen Glieder zu beseitigen. Wie m¨ ogliche c zu w¨ahlen sind, ergibt sich aus den sich anschließenden Rechnungen. alt man nach einigen ZusammenErsetzt man in (4) x′ durch x′′ + c, so erh¨ fassungen, die wir bereits zu Beginn dieses Abschnittes einmal durchgef¨ uhrt haben (siehe S. 300), folgende Gleichung: T
T
x′′ · D · x′′ + 2 · (D · c + b′ )T · x′′ + (cT · D · c + 2 · b′ · c + c) = 0. Der Vektor c := (c1 , . . . , cn )T mit den Koordinaten des neuen Koordinatenursprungs (bez. S ′ ) soll so bestimmt werden, daß D · c + b′ = (0, 0, . . . , 0, b′n )T und
T
cT · D · c + 2 · b′ · c + c = 0 sind. Aus der ersten Gleichung ergibt sich unmittelbar: ci = −
b′i λi
(i = 1, . . . , r).
Außerdem sieht man, daß cr+1 , . . . , cn−1 beliebig w¨ahlbar sind. Wir setzen hier cj = 0 (j = r + 1, . . . , n − 1). Die noch fehlende Koordinate cn ergibt sich aus der Gleichung T
cT · D · c + 2 · b′ · c + c = 0, indem man die bereits bestimmten Werte der ck (k = 1, . . . , n − 1) einsetzt ost: und die Gleichung nach cn aufl¨ 2
cn =
2
b′ b′ 1 · ( 1 + . . . + r − c). ′ 2 · bn λ1 λr
Zusammenfassend erhalten wir damit cT = (−
b′1 b′ 1 b′r 2 b′1 2 , . . . , − r , 0, . . . , 0, + . . . + − c)). · ( λ1 λr 2 · b′n λ1 λr
(4) geht folglich durch die 2. Transformation u ¨ ber in
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
T
x′′ · D · x′′ + 2 · (0, . . . , 0, b′n ) · x′′ = 0.
309
(5)
Division durch −b′n ergibt aus (5) eine Normalform des Typs (II). Nachfolgend einige Beispiele zu Fall 2. 4. Beispiel
Seien n = 3 und √ T4 : 2x2 + 2y 2 + 4xy + 2x − 2y + 2 2z = 0.
(1B4 )
Die Matrizendarstellung von T4 lautet: ⎛ ⎞ 2 2 0 √ T ⎝ x · 2 2 0 ⎠ · x + 2 · (1, −1, 2) · x = 0. 0 0 0
Wegen rgA = 1 (= r) und rg(A, −b) = 2 liegt Fall 2 vor. Außerdem ergibt ¨ sich aus unseren obigen Uberlegungen, daß A genau einen EW = 0 besitzt und 0 ein EW von A mit der Vielfachheit 2 ist. Wir beginnen mit der 1. Transformation: x = B · x′ , wobei B = (b1 , b2 , b3 ), b1 ein normierter EV zum einzigen EW = 0 und b2 , b3 orthonormierte EVen zum EW 0 sind, die außerdem noch bT · b2 = 0 und ullen. bT · b3 = 0 erf¨ Zwecks Berechnung von B haben wir zun¨ achst die EWe von A zu bestimmen: 2−λ 2 0 2 2 − λ 0 = −λ((2 − λ)2 − 4) = −λ2 (−4 + λ) = 0 0 0 −λ =⇒ λ1 = 4 ∧ λ2 = λ3 = 0. (Dies folgt aber auch unmittelbar aus rgA = 1 und mit Hilfe von Satz 8.2.8, (b).) Die EVen zum EW 4 erh¨ alt man aus ⎛ ⎞ ⎛ ⎞ −2 2 0 1 ⎝ 2 −2 0 ⎠ · y = o : y = t · ⎝ 1 ⎠ (t ∈ R), 0 0 −4 0
woraus sich
ergibt.
⎛ ⎞ 1 √ b1 := (1/ 2) ⎝ 1 ⎠ 0
310
9 Hyperfl¨ achen 2. Ordnung
Zwecks Ermittlung von b2 , b3 haben wir zun¨ achst zwei LGS zu l¨osen. Es gilt ⎛ ⎞ 2 2 0 ⎜2 2 0 ⎟ ⎟ (A, b)T · y = o ⇐⇒ ⎜ ⎝ 0 0 0 ⎠·y=o √ 1 −1 2 ⇐⇒ y1 + y2 = 0 √ y1 − y2 + 2 y3 = 0 ⎞ ⎛ −1 ⇐⇒ y = t · ⎝ √1 ⎠ (t ∈ R) 2
und ⎛
⎞ 2 2 0 A · y = o ⇐⇒ ⎝ 2 2 0 ⎠ · y = o 0 0 0
⇐⇒ y1 + y2 + 0 · y3 = 0 ⎛ ⎛ ⎞ ⎞ −1 0 ⇐⇒ y = t1 · ⎝ 1 ⎠ + t2 · ⎝ 0 ⎠ (t1 , t2 ∈ R). 0 1 √ W¨ ahlt man nun a1 := (−1, 1, 2)T (als eine L¨osung des ersten LGS) und osung des zweiten LGS, die keine L¨osung des ersten a2 := (0, 0, 1)T (als eine L¨ LGS ist), so erh¨ alt man durch Anwenden des ONV auf die Vektoren a1 , a2 (Reihenfolge einhalten!) die noch fehlenden Spalten b2 , b3 von B: ⎛ ⎞ −1 b2 := a11 · a1 = 12 · ⎝ √1 ⎠ , 2 ⎞ ⎞ ⎛ ⎞ ⎛ ⎛ −1 1 0 √ √ −1 ⎠ , a2 − ϕ(a2 , b2 ) · b2 = ⎝ 0 ⎠ − 42 · ⎝ √1 ⎠ = 42 · ⎝ √ 1 2 2 ⎞ ⎛ 1 −1 ⎠ . b3 := 12 · ⎝ √ 2 Die Matrix B hat somit die Gestalt ⎛ √ ⎞ 1/√2 −1/2 1/2 ⎝ 1/ 2 1/2 −1/2 ⎠ , √ √ 0 2/2 2/2
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
311
und es gilt b′1 := bT · b1 = 0 (Zufall!), b′2 := bT · b2 = 0 (nach Konstruktion von B) sowie b′3 := bT · b3 = 2 ( = 0 nach Konstruktion von B). Die Gleichung (1B4 ) geht damit durch die 1. Transformation u ¨ ber in die Gleichung ⎛ ⎞ 4 0 0 T x′ ·⎝ 0 0 0 ⎠·x′ +2·(0, 0, 2)·x′ = 0 (4B4 ) 0 0 0 bzw.
2
4 · x′ + 4 · z ′ = 0. Die 2. Transformation er¨ ubrigt sich, da (4B4 ) (bis auf einen gewissen Faktor) bereits in der gew¨ unschten Normalform (II) vorliegt. T ist folglich ein sogenannter parabolischer Zylinder. Eine Skizze dieser Fl¨ache im x′ , y ′ , z ′ -Koordinatensystem kann man sich z.B. mit Hilfe der Abbildung eines parabolischen Zylinders von Seite 326 u ¨ berlegen. Die Lage der Fl¨ ache T im Ausgangskoordinatensystem ist dann aus der Transformationsformel x = B·x′ ablesbar. Bekanntlich sind die Spalten von B gerade die Koordinaten der neuen Basisvektoren bez. der alten Basis des Koordinatensystem S. Außerdem a ¨ndert sich der Koordinatenursprung nicht. 5. Beispiel
Seien n = 2 und T5 : x2 + 4y 2 + 4xy + 2x + 2y − 7 = 0
bzw. T
T5 : x ·
1 2 2 4
· x + 2 · (1, 1) · x − 7 = 0.
Da r := rgA = 1 < rg(A, −b) = 2 ist, liegt Fall 2 vor. Um die 1. Transformation: x = B · x′ mit B = (b1 , b2 ) normierter EV zum EW λ1 = 0 von A
@ I @ @ @ normierter EV zum EW 0 von A
(1B5 )
312
9 Hyperfl¨ achen 2. Ordnung
durchf¨ uhren zu k¨ onnen, haben wir zun¨ achst die EWe und die zugeh¨origen EVen von A zu berechnen. EWe λ1 , λ2 von A: 1−λ 2 = λ · (λ − 5) = 0 =⇒ λ1 = 5 ∧ λ2 = 0. 2 4−λ EVen zum EW λ1 = 5 von A: −4 2 1 · y = o =⇒ y = t · 2 −1 2
(t ∈ R)
EVen zum EW λ2 = 0 von A: 1 2 2 · y = o =⇒ y = s · (s ∈ R). 2 4 −1 Normieren der entsprechenden EVen liefert √ 1 2 . B = (1/ 5) · 2 −1 (1B5 ) geht folglich durch die 1. Transformation in
5 0 ·x′ +2·(b′1 , b′2 )·x′ −7 = 0 0 0 √ √ u ¨ ber, wobei b′1 = bT · b1 = 3/ 5 und b′2 = bT · b2 = 1/ 5 ist. Durch die 2. Transformation x′ = c + x′′ mit −b′1 /λ1 c = 2 (1/(2b′2 )) · (b′1 /λ1 − c) −0.268 ≈ 8.229 T
x′ ·
(4B5 )
l¨ aßt sich (4B5 ) in T
x′′ · bzw.
5 0 0 0
√ · x′′ + 2 · (0, 1/ 5) · x′′ = 0
√ 2 5x′′ + (2/ 5) · y ′′ = 0
u uhren, womit T eine Parabel ist, die im x′′ , y ′′ -Koordinatensystem wie ¨ berf¨ folgt skizzierbar ist:
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
313
Die Lage dieser Parabel im Ausgangskoordinatensystem erh¨alt man, indem man die oben durchgef¨ uhrten Koordinatentransformationen zusammenfaßt: x = B · x′ = B · (c + x′′ ) ′′ = B·c+ B · x 7.24 ≈ + −3.92 Koordinaten des neuen Koordinatenursprungs im Ausgangskoordinatensystem
0, 45 0.9 0, 9 −0.45
·x′′
Koordinaten der neuen Basisvektoren im Ausgangskoordinatensystem
Wir erhalten damit folgende Skizze der Kurve T5 :
Abschließend seien noch einmal die einzelnen Schritte der Hauptachsentransformation zusammengefaßt.
314
9 Hyperfl¨ achen 2. Ordnung
Hauptachsentransformation (Zusammenfassung) Seien A eine symmetrische (n, n)-Matrix, bT = (b1 , . . . , bn ), S ein kartesisches Koordinatensystem des Rn und X T = (x1 , . . . , xn ) =: xT . Die Hyperfl¨ache /S 2. Ordnung T : xT ·A·x+2·bT ·x+c = 0
(1)
l¨ aßt sich durch maximal zwei Koordinatentransformationen mit orthogonalen ¨ Ubergangsmatrizen (bzw. durch geeignete Wahl eines kartesischen Koordinatensystems S ′′ ) in eine der folgenden Normalformen (Ia) (Ib) (II)
2
2
2
α1 x′′1 + α2 x′′2 + . . . + αn x′′n = 0 2 2 2 α1 x′′1 + α2 x′′2 + . . . + αn x′′n = 1 2 2 α1 x′′1 + . . . + αr x′′r − 2x′′n = 0
(r < n)
auf folgende Weise u uhren: ¨ berf¨ 1. Fall: rgA = rg(A, −b). 1. Transformation: x = c + x′ . c berechnet man aus A · c = −b. (1) geht dann u ¨ ber in T
x′ · A · x′ + c′ = 0,
(2)
wobei c′ = bT · c + c. 2. Transformation: x′ = B · x′′ . B ist eine orthogonale Matrix, deren Spalten orthonormierte EVen zu den EWen von A sind. (2) geht durch diese 2. Transformation u ¨ ber in ⎞ ⎛ λ1 . . . 0 T x′′ · ⎝ . . . . . ⎠ ·x′′ +c′ = 0, (3) 0 . . . λn
wobei λ1 , . . . , λn die EWe von A sind. F¨ ur c′ = 0 liegt durch (3) eine Normal′ form des Typs (Ia) f¨ ur T vor. Ist c = 0, so liefert die Division durch −c′ aus (3) eine Normalform des Typs (Ib). 2. Fall: rgA =: r < rg(A, −b). 1. Transformation: x = B · x′ . B = (b1 , . . . , br , br+1 , . . . , bn−1 , bn ) und b1 , . . . , br sind orthonormierte EVen zu den von 0 verschiedenen EWen von A. br+1 , . . . , bn sind orthonormierte EVen zum EW 0 von A, die so gew¨ ahlt sind, daß bT br+1 = . . . = bT br−1 = 0 T und b bn = 0 gilt, d.h., br+1 , . . . , bn erh¨ alt man durch Anwenden des E.Schmidtschen Orthonormierungsverfahrens auf gewisse Vektoren a1 , . . . , an−r , angige L¨ osungen von (A, b)T ·x = o sind und wobei a1 , . . . , an−r−1 linear unabh¨ an−r eine L¨ osung von A · x = o, aber keine von (A, b)T · x = o ist. Man kann also nach folgendem Verfahren B berechnen:
9.2 Hauptachsentransformation (Beweis von Satz 9.1.1)
•
315
Ermittlung der n EWe von A (Vielfachheiten mitgez¨ahlt): λ1 , . . . , λr , = 0
•
0, . . . , 0 n−r
Zu den EWen λ1 , . . . , λr ermittle man r l.u. EVen und orthonormiere sie anschließend nach dem ONV. Man erh¨ alt b1 , . . . , br . L¨ osen der LGS
•
(A, b)T · y = o : y = t1 · a1 + . . . + tn−r−1 · an−r−1 und A · y = o :
y = s1 · a′1 + . . . + sn−r · a′n−r .
Wahl der Vektoren a1 , . . . , an−r−1 , a′i (i ∈ {1, . . . , n − r}), wobei a′i ∈ / [{a1 , . . . , an−r−1 }] und anschließendes Orthonomieren (dabei unbedingt den Vektor a′i als letzten Vektor beim ONV einsetzen!) liefert br+1 , . . . , bn . (1) geht durch die Transformation x = B · x′ u ¨ ber in T
T
x′ · D · x′ + 2 · b′ · x′ + c = 0, wobei
⎛
λ1 ⎜ .. ⎜ . ⎜ ⎜ 0 D=⎜ ⎜ 0 ⎜ ⎜ . ⎝ .. 0
T
(4)
⎞ ... 0 ... 0 .⎟ . . .. . . . . . .. ⎟ ⎟ . . . λr . . . 0 ⎟ ⎟, ......... 0 ⎟ ⎟ .. ⎟ ......... . ⎠ ......... 0
ur i ∈ {1, . . . , r, n}. b′ = (b′1 , . . . , b′r , 0, . . . , 0, b′n ) und b′i = bT · bi f¨ 2. Transformation: x′ = c + x′′ . c berechnet man aus
T
D · c + b′ = (0, . . . , 0, b′n )T und cT · D · c + 2 · b′ · c + c = 0. Z.B. kann man folgendes c w¨ ahlen: 2
2
(−b′1 /λ1 , . . . , −b′r /λr , 0, . . . , 0, (b′1 /λ1 + . . . + b′r /λr − c)/(2b′n ))T . (4) geht durch die 2. Transformation u ¨ ber in T
x′′ · D · x′′ + 2 · (0, . . . , 0, b′n ) · x′′ = 0. Division durch −b′n ergibt aus (5) eine Normalform des Typs (II).
(5)
316
9 Hyperfl¨ achen 2. Ordnung
9.3 Klassifikation der Kurven 2. Ordnung Zwecks Kl¨ arung der Frage, welche geometrischen Gebilde durch Gleichungen der Form (1) (siehe S. 299) in der Ebene beschrieben werden, haben wir nach Satz 9.1.1 (S. 299) nur folgende drei Gleichungen zu untersuchen: (Ia) (Ib) (II)
α · x2 + β · y 2 = 0 α · x2 + β · y 2 = 1 α · x2 − 2 · y = 0.
Die nachfolgende Tabelle gibt m¨ ogliche Vorzeichenverteilungen f¨ ur α und β an, die wiederum den Typ der durch die oben stehenden Gleichungen beschriebenen Kurven T bestimmen. Weggelassen wurden dabei Vorzeichenverteilungen, die sich durch Vertauschen von x und y bzw. durch Multiplikation der obigen Gleichungen mit −1 auf die in der Tabelle bereits behandelten F¨alle zur¨ uckf¨ uhren lassen. Die mit Ellipse und Hyperbel bezeichneten Kurven 2. Ordnung werden anschließend noch durch gewisse geometrischen Eigenschaften definiert, und dann wird gezeigt, daß die so eingef¨ uhrten Punktmengen als charakterisierende Gleichungen die in der Tabelle angegebenen besitzen, wenn sich die Kurven in sogenannten Mittelpunktslagen befinden. Normal- α form N (Ia) 0 0 + + (Ib) 0 0 + + − (II) 0 +
β durch N beschriebene Punktmenge ⊆ R2 0 x, y-Ebene + Gerade y = 0 + Punkt (0, 0) − Geradenpaar y = ±(|α/β|) · x + Doppelgerade y = ±1/β − ∅ ( imagin¨ ares Gebilde“) ” + Ellipse − Hyperbel − ∅ ( imagin¨ ares Gebilde“) ” 0 Gerade y = 0 0 Parabel
Folglich gilt: Satz 9.3.1 Durch Gleichungen der Form xT · A · x + 2 · bT · x + c = 0 werden im R2 folgende Punktmengen bzw. geometrische Gebilde beschrieben: ∅, Punkt, Gerade, zwei parallele Geraden, zwei sich schneidende Geraden sowie die sogenannten nichtausgearteten Kegelschnitte: Ellipse (mit Kreis als Spezialfall), Hyperbel, Parabel. Mit Hilfe des nachfolgenden Satzes l¨ aßt sich leicht feststellen, um welche Gebilde es sich bei einer vorgegebener Gleichung f¨ ur eine Kurve 2. Ordnung handelt:
9.3 Klassifikation der Kurven 2. Ordnung
317
Satz 9.3.2 Die Kurve T mit ∅ = T ⊆ R2 , die durch die Gleichung T : ax2 + by 2 + 2cxy + 2dx + 2ey + f = 0 beschrieben wird, ist genau dann ein nichtausgearteter Kegelschnitt, wenn f d e d a c = 0 e c b gilt. Und zwar handelt es um eine ⎧ ⎧ Ellipse ⎨ a c ⎨ > 0 =0 . Parabel , wenn ⎩ ⎩ c b Hyperbel <0 ¨ UA.
Beweis.
Mit den nichtausgearteten Kegelschnitten wollen wir uns jetzt noch etwas n¨ aher besch¨ aftigen. Der Name Kegelschnitt r¨ uhrt von folgenden Eigenschaften eines doppelten Kreiskegels her: Schneidet man einen doppelten Kreiskegel mit einer Ebene auf die unten angegebenen drei verschiedenen Arten: A A
Aa a A a aa A A A A A A AA
A A
A A
A A A A A A AA
A A
A A A A A A A A AA AK parallel
entstehen als Schnittkurven gerade Ellipse
Hyperbel
Parabel.
Pr¨ azisierungen obiger Konstruktionen kann man nat¨ urlich auch zur Definition der nichtausgearteten Kegelschnitte heranziehen, wie es u ¨brigens bereits in der Antike geschah. Wir gehen hier jedoch einen anderen Weg, indem wir andere geometrische Eigenschaften zur Definition der (nichtausgearteten Kegelschnitte) Ellipse bzw. Hyperbel benutzen und anschließend aus diesen Eigenschaften Gleichungen ableiten werden, die diese vollst¨ andig charakterisieren.
318
9 Hyperfl¨ achen 2. Ordnung
Definition Die Ellipse ist der geometrische Ort (bzw. die Menge) aller Punkte X ∈ R2 , die von zwei festen Punkten F1 , F2 (̺(F1 , F2 ) := |F1 − F2 | = 2 · e, e ≥ 0) die konstante Abstandssumme ̺(X, F1 ) + ̺(X, F2 ) := |X − F1 | + |X − F2 | = 2 · a (a > 0) haben.1 Diese Definition einer Ellipse f¨ ur e > 0 liefert sofort folgende G¨ artnerkon” struktion“: Man fixiere durch zwei St¨ abe die Punkte F1 , F2 , nehme ein verknotetes Band der L¨ ange 2a + 2e und ziehe mit Hilfe eines weiteren Stabes (wie unten angegeben) die Ellipsenkurve:
Die aus der oben angegebenen Definition einer Ellipse E folgende beschreibende Gleichung |X − F1 | + |X − F2 | = 2a ist f¨ ur konkrete Rechnungen nicht allzu handlich“. Wir zeigen deshalb ” zun¨ achst, daß eine Ellipse in Mittelpunktslage“ durch eine Gleichung der ” Art x2 /a2 + y 2 /b2 = 1 beschreibbar ist, und leiten anschließend noch eine Parameterdarstellung der Ellipse her. √ a2 − e2 und F1 , F2 ∈ R2 mit F1/S = (S: kartesisches Koordinatensystem des R2 ) und
Satz 9.3.3 Seien a > e ≥ 0, b :=
(−e, 0)T , F2/S = (0, e)T ur alle X ∈ R2 mit X/S = (x, y)T : |F1 − F2 | = 2e. Dann gilt f¨
X ∈ E :⇐⇒ |X − F1 | + |X − F2 | = 2a ⇐⇒ x2 /a2 + y 2 /b2 = 1. 1
F¨ ur e = 0 ist die Ellipse ein Kreis.
9.3 Klassifikation der Kurven 2. Ordnung
319
Beweis. =⇒“: Sei |X − F1 | + |X − F2 | = 2a. Wegen a > e gilt a2 − e2 > 0, ”√ 2 womit b := a − e2 festlegbar ist. Geometrisch l¨aßt sich b wie folgt deuten:
Aus den oben vereinbarten Koordinaten von X, F1 , F2 und der Voraussetzung |X − F1 | + |X − F2 | = 2a ergibt sich nun . . (x + e)2 + y 2 = 2a − y 2 + (x − e)2 . Quadriert man diese Gleichung, so erh¨ alt man . 2 2 2 (x + e) + y = 4a − 4a · y 2 + (x − e)2 + y 2 + (x − e)2
sowie (nach einigen Zusammenfassungen) . . 4xe − 4a2 = −4a · y 2 + (x − e)2 bzw. a2 − xe = a · y 2 + (x − e)2 .
Erneutes Quadrieren liefert die Gleichung (a2 − xe)2 = a2 (y 2 + (x − e)2 ), die sich wie folgt zusammenfassen l¨ aßt: a4 − 2a2 xe + x2 e2 = a2 y 2 + a2 x2 − 2a2 xe + a2 e2 ,
0 = (a2 − e2 ) · x2 + a2 · y 2 + a2 · (e2 − a2 ) = b2 · x2 + a2 · y 2 − a2 · b2 .
320
9 Hyperfl¨ achen 2. Ordnung
Dividiert man die letzte Gleichung durch a2 · b2 , so erh¨alt man 0 = x2 /a2 + y 2 /b2 − 1, w.z.b.w. ⇐=“: Sei X ∈ R2 ein Punkt, f¨ ur dessen Koordinaten x, y (bez. des karte” sischen Koordinatensystem S := (A; i, j)) x2 /a2 + y 2 /b2 = 1 gilt. Folgende Gleichungen pr¨ uft man leicht nach: . |X − F1 | = (x + e)2 + y 2 . x2 + 2xe + e2 + b2 − (b2 /a2 ) · x2 = ( da y 2 = b2 (1 − (x2 /a2 )) . = x2 + 2xe + e2 + a2 − e2 − x2 + (e2 /a2 )x2
( wegen b2 = a2 − e2 ) . 2xe + a2 + (e2 /a2 ) · x2 = . (a + (e/a) · x)2 =
= |a + (e/a) · x|. Analog rechnet man nach, daß
|X − F2 | = |a − (e/a) · x| gilt. Wegen x2 /a2 + y 2 /b2 = 1 ist |x| ≤ a. Hieraus und aus der Voraussetzung e < a l¨ aßt sich nun schlußfolgern, daß a + (e/a)x ≥ 0 sowie a − (e/a)x ≥ 0, womit |X − F1 | + |X − F2 | = 2a gilt. Eine weitere M¨ oglichkeit der Charakterisierung einer Ellipse gibt das folgende Lemma an. Lemma 9.3.4 F¨ ur beliebige x, y ∈ R gilt: x2 /a2 + y 2 /b2 = 1 ⇐⇒ ∃ϕ ∈ [0, 2π) : x = a · cos ϕ y = b · sin ϕ.
∧
(Mit anderen Worten: Eine Ellipse E : x2 /a2 + y 2 /b2 = 1 l¨aßt sich auch durch x = a · cos ϕ E: ϕ ∈ [0, 2π) y = b · sin ϕ (Parameterdarstellung von E) beschreiben, d.h., man erh¨alt alle Punkte einer Ellipse, wenn man ϕ alle reellen Zahlen aus [0, 2 · π) durchlaufen l¨aßt.) Beweis.
¨ UA.
Geometrisch l¨ aßt sich der Parameter ϕ aus obigem Lemma wie folgt deuten:
9.3 Klassifikation der Kurven 2. Ordnung
321
Sei o.B.d.A. a > b. Zeichnet man nun um den Koordinatenursprung A einen Kreis mit dem Radius a und einen Kreis mit dem Radius b, so schneidet ein von A ausgehender Strahl, der mit der positiven x-Achse den Winkel ϕ bildet, den Kreis mit dem Radius a im Punkt P1 und den anderen im Punkt P2 . Der Schnittpunkt der Parallelen zur y-Achse durch P1 mit der Parallelen zur x-Achse durch P2 ist dann ein Punkt P der Ellipse mit den Koordinaten x = a · cos ϕ sowie y = b · sin ϕ. Aus der oben angegebenen Eigenschaft der Ellipse ist u ¨ brigens ein einfaches Verfahren zur Konstruktion von Ellipsenpunkten mit Zirkel und Lineal ablesbar. Definition Die Hyperbel H ist die Menge aller Punkte X ∈ R2 , f¨ ur die die Differenz der Abst¨ ande zu zwei gegebenen Punkten F1 , F2 (|F1 − F2 | = 2e, e > 0) den festen Betrag 2a (a < e) hat. Es gilt also X ∈ H :⇐⇒ | |X − F1 | − |X − F2 | | = 2a. ¨ Analog zum Beweis von Satz 9.3.3 l¨ aßt sich der folgende Satz beweisen (UA A.9.9). √ e2 − a2 , F1/S := (−e, 0)T , F2/S := ur beliebige X ∈ R2 mit X/S := (x, y)T : (e, 0)T . Dann gilt f¨
Satz 9.3.5 Seien e > a > 0, b :=
X ∈ H ⇐⇒ | |X − F1 | − |X − F2 | | = 2a ⇐⇒ x2 /a2 − y 2 /b2 = 1.
322
9 Hyperfl¨ achen 2. Ordnung
Skizzieren l¨ aßt sich eine Hyperbel wie folgt:
Dabei sind die Geraden y = (b/a) · x bzw. y = −(b/a) · x die sogenannten Asymptoten der Hyperbel (also Geraden, denen sich die Hyperbelb¨ogen f¨ ur x → ∞ bzw. x → −∞ beliebig ann¨ ahern). Der Kurvenverlauf l¨ aßt sich z.B. auf folgende Weise begr¨ unden: Geht man vom Koordinatensystem S := (A; i, j) zum Koordinatensystem S ′ := (A; a · i + b · j, a · i − b · j) u ¨ ber (d.h., man w¨ahlt die Asymptoten als neue Koordinatenachsen), so besteht zwischen den Koordinaten bez. S und denen bez. S ′ folgender Zusammenhang: a a X/S = · X/S ′ b −b bzw., falls X/S = (x, y)T und X ′ = (x′ , y ′ )T , /S x = a · (x′ + y ′ ) y = b · (x′ − y ′ ). Im Koordinatensystem S ′ lautet damit die Gleichung der Hyperbel H (x′ + y ′ )2 − (x′ − y ′ )2 = 1 bzw. 4 · x′ · y ′ = 1.
ullt sein kann, charakterisiert die GleiDa diese Gleichung nur f¨ ur x′ = 0 erf¨ chung y ′ = 1/(4 · x′ )
ebenfalls die Hyperbel H im Koordinatensystem S ′ . Aus der letzten Gleichung ergibt sich dann der oben skizzierte Kurvenverlauf. Es sei noch bemerkt, daß sich mit Hilfe der Hyperbelfunktionen cosh x := (1/2) · (ex + e−x ), sinh x := (1/2) · (ex − e−x )
9.4 Klassifikation der Fl¨ achen 2. Ordnung
323
(Lies: cosinus hyperbolicus bzw. sinus hyperbolicus) auch eine Parameterdarstellung f¨ ur H einf¨ uhren l¨ aßt. Es gilt n¨ amlich (siehe dazu z.B. [Bre-B 66]): x2 /a2 − y 2 /b2 = 1 ⇐⇒ ∃t ∈ R : x = a · cosh t ∧ y = b · sinh t.
9.4 Klassifikation der Fl¨ achen 2. Ordnung Nach Satz 9.1.1 kann man sich bei der Beantwortung der Frage, welche geometrischen Gebilde des R3 durch die Gleichung (1) (S. 299) beschrieben werden k¨ onnen, auf die Untersuchung folgender Gleichungen beschr¨anken: (Ia) (Ib) (II)
α · x2 + β · y 2 + γ · z 2 = 0 α · x2 + β · y 2 + γ · z 2 = 1 α · x2 + β · y 2 − 2 · z = 0.
O.B.d.A. gen¨ ugt es (wie im Abschnitt 9.3), nur die in der nachfolgenden Tabelle angegebenen Vorzeichenverteilungen zu untersuchen. Die nicht angegebenen F¨ alle sind trivial oder lassen sich durch Vertauschen der Variablen oder durch Multiplikation der Gleichungen mit −1 auf die in der Tabelle behandelten F¨ alle zur¨ uckf¨ uhren. ¨ Der besseren Ubersicht wegen sind in der Tabelle – neben den Vorzeichenverteilungen – nur noch die allgemein u ¨ blichen Bezeichnungen der zugeh¨origen Fl¨ achen angegeben. Skizzen der Fl¨ achen findet man ab Seite 324. Normal- α β form N (Ia) + 0 + − + + + + + + (Ib) + 0 − 0 + + + − − − + + + + + − − − (II) + 0 + + + −
γ durch N beschriebene Punktmenge ⊆ R3 0 Ebene 0 zwei sich schneidende Ebenen 0 Gerade + Punkt − Kegel 0 Doppelebene 0 ∅ ( imagin¨ ares Gebilde“) ” 0 elliptischer Zylinder 0 hyperbolischer Zylinder 0 ∅ ( imagin¨ ares Gebilde“) ” + Ellipsoid − einschaliges Hyperboloid − zweischaliges Hyperboloid − ∅ ( imagin¨ ares Gebilde“) ” 0 parabolischer Zylinder 0 elliptisches Paraboloid 0 hyperbolisches Paraboloid
324
9 Hyperfl¨ achen 2. Ordnung
Eine geometrische Vorstellung von den oben durch Gleichungen definierte Fl¨ achen erh¨ alt man durch Schneiden dieser Fl¨achen mit gewissen Ebenen, die parallel zu zwei Achsen verlaufen. Die Punkte einer solchen Schnittkurve sind dann durch eine gewisse Gleichung charakterisierbar, die aus der vorgegebenen Gleichung der Fl¨ ache 2. Ordnung durch Ersetzen einer Variablen durch eine gewisse Konstante entstehen, womit die Schnittkurve offenbar eine Kurve 2. Ordnung ist. Mit Hilfe der Ergebnisse aus Abschnitt 9.3 lassen sich damit die folgenden Skizzen von (nichtausgearteten) Fl¨achen 2. Ordnung verifizieren:
Kegel:
y2 z2 x2 + − =0 a2 b2 c2
elliptischer Zylinder:
y2 x2 + =1 a2 b2
9.4 Klassifikation der Fl¨ achen 2. Ordnung
hyperbolischer Zylinder:
Ellipsoid:
y2 x2 − 2 =1 2 a b
x2 y2 z2 + 2 + 2 =1 2 a b c
einschaliges Hyperboloid:
y2 z2 x2 + − =1 a2 b2 c2
325
326
9 Hyperfl¨ achen 2. Ordnung
zweischaliges Hyperboloid:
parabolischer Zylinder:
x2 y2 z2 − − =1 a2 b2 c2
x2 −2·z =0 a2
9.4 Klassifikation der Fl¨ achen 2. Ordnung
elliptisches Paraboloid:
x2 y2 + −2·z =0 a2 b2
hyperbolisches Paraboloid:
y2 x2 − −2·z =0 a2 b2
327
10 Lineare Abbildungen
Nachfolgend sollen die homomorphen Abbildungen zwischen Vektorr¨aumen u orper K – die linearen Abbildungen – studiert werden. Nach ei¨ ber dem K¨ nem Abschnitt u ¨ber allgemeine Eigenschaften von linearen Abbildungen geht es in den folgenden Abschnitten vorrangig um lineare Abbildungen zwischen Vektorr¨ aumen u ¨ber K ∈ {R, C}, auf denen Skalarprodukte definiert sind. Es werden der Begriff der zu einer linearen Abbildung adjungierten Abbildung eingef¨ uhrt und dann einige grundlegende Eigenschaften von normalen, selbstadjungierten, antiselbstadjungierten und orthogonalen (bzw. unit¨aren) Abbildungen hergeleitet. Ziel dieser Abschnitte ist es, ein gewisses Grundwissen u ¨ ber die genannten Abbildungen zu vermitteln, da diese Abbildungen in mehreren Gebieten der Mathematik ihre Anwendung finden. F¨ ur einige Typen von linearen Abbildungen werden wir uns anschließend Normalformen, d.h. gewisse M¨ oglichkeiten der einfachen Beschreibung der behandelten linearen Abbildungen u ¨ berlegen. Im letzten Abschnitt bilden wir dann gewisse Gruppen G := (G; 2) aus linearen Abbildungen f : V −→ V und f¨ uhren den Begriff der Invarianten einer solchen Gruppe ein. In Kapitel 11 werden wir sehen, daß mit Hilfe der Ergebnisse aus Abschnitt 10.7 Aussagen u ¨ ber Punktr¨aume klassifiziert beziehungsweise geordnet werden k¨ onnen.
10.1 Allgemeines u ¨ ber lineare Abbildungen Wir verallgemeinern den Begriff der isomorphen Abbildung zwischen Vektorr¨ aumen aus Abschnitt 4.6. Definition Seien V und W Vektorr¨ aume u ¨ber dem K¨orper K. Eine Abbildung f von V in W heißt lineare Abbildung (oder homomorphe Abbildung), wenn sie die folgende Bedingung erf¨ ullt: ∀a, b ∈ V ∀λ, µ ∈ K : f (λ · a + µ · b) = λ · f (a) + µ · f (b).
(10.1)
330
10 Lineare Abbildungen
Wir bemerken, daß die Bedingung ∀a, b ∈ V ∀λ ∈ K : f (a + b) = f (a) + f (b) ∧ f (λ · a) = λ · f (a)
(10.2)
zu (10.1) ¨ aquivalent ist, d.h., f : V → W ist genau dann eine lineare Abbildung, wenn sie mit + und · vertr¨ aglich ist. Beispiele (1.) Offenbar ist f1 : V → {o}, a → o eine lineare Abbildung. (2.) Bezeichne C[a, b] den Vektorraum aller stetigen Funktionen u ¨ ber dem Intervall [a, b] ⊂ R 1 . Dann ist die Abbildung f2 : C[a, b] → R, g(x) →
/
b
g(x) dx
a
linear, da f¨ ur beliebige g1 , g2 ∈ C[a, b] und beliebige λ, µ ∈ R gilt: f2 (λ · g1 (x) + µ · g2 (x)) =
1b
(λ · g1 (x) + µ · g2 (x)) dx 1b = a λ · g1 (x) dx + a µ · g2 (x) dx 1b 1b = λ · a g1 (x) dx + µ · a g2 (x) dx a
1b
= λ · f (g1 (x)) + µ · f (g2 (x)).
(3.) Bezeichne D(a, b) die Menge aller beliebig oft differenzierbaren Funktionen u ¨ ber dem offenen Intervall (a, b) ⊂ R. Da jede Linearkombination von solchen Funktionen aus D(a, b) bekanntlich wieder beliebig oft differenzierbar ist, ist D(a, b) ein Untervektorraum des Vektorraums C(a, b) aller (auf dem Intervall (a, b) definierten) stetigen Funktionen u ¨ ber dem K¨orper R. Betrachtet man nun die Abbildung f3 : D(a, b) −→ D(a, b), y → y (n) + an−1 ·y (n−1) + ...+ a1 ·y (1) + a0 ·y, (10.3) wobei a0 , a1 , ..., an−1 ∈ R und y (i) die i-te Ableitung der Funktion y bezeichnet (i = 1, 2, ..., n), so pr¨ uft man leicht nach, daß ∀y1 , y2 ∈ D(a, b) ∀α1 , α2 ∈ R : f3 (α1 · y1 + α2 · y2 ) = α1 · f3 (y1 ) + α2 · f3 (y2 ) gilt. Also ist f3 eine lineare Abbildung. (4.) Es sei K ein beliebiger K¨ orper und A ∈ K m×n (m, n ∈ N). Dann ist f4 : K n×1 → K m×1 , x → A · x linear, da f¨ ur alle a, b ∈ K n×1 und λ, µ ∈ K 1
Siehe Abschnitt 4.1, Beispiel (3.).
10.1 Allgemeines u ¨ ber lineare Abbildungen
f4 (λ · a + µ · b) = = = =
331
A · (λ · a + µ · b) A · (λ · a) + A · (µ · b) λ·A·a+µ·A·b λ · f4 (a) + µ · f4 (b)
gilt. Keine lineare Abbildung wird durch f5 : K n×1 → K m×1 , x → A · x + b definiert, falls b ∈ K m×1 \{o}. (5.) Sind U , V und W Vektorr¨ aume u ¨ ber dem K¨orper K sowie f : U −→ V und g : V −→ W lineare Abbildungen, so ist f 2g eine lineare Abbildung von U in W , da f¨ ur beliebige λ, µ ∈ K und beliebige a, b ∈ U gilt: (f 2g)(λ · a + µ · b) = g(f (λ · a + µ · b)) = g(λ · f (a) + µ · f (b)) = λ · g(f (a)) + µ · g(f (b)) = λ · (f 2g)(a) + µ · (f 2g)(b). (6.) Falls die lineare Abbildung f : K V −→ K W eine bijektive Abbildung ist, existiert bekanntlich die inverse Abbildung f −1 : K W −→ K V . Diese inverse Abbildung ist dann ebenfalls linear, da sich aus der Annahme f −1 (λ·a+µ·b) = λ·f −1 (a)+µ·f −1 (b) f¨ ur gewisse λ, µ ∈ K und a, b ∈ W wegen der Bijektivit¨at von f −1 die Ungleichung λ · a + µ · b = f (λ · f −1 (a) + µ · f −1 (b)) ergibt, die wegen der Linearit¨ at von f nicht gelten kann. Satz 10.1.1 F¨ ur jede lineare Abbildung f : V → W ist f (V ) := {y | ∃x ∈ V : f (x) = y}, der Wertebereich der Abbildung f , ein Untervektorraum von W . Beweis. Offenbar ist f (V ) = ∅. Nach Satz 4.2.1 bleibt damit zu zeigen, daß f (V ) bez. + und · abgeschlossen ist. Seien dazu a, b ∈ f (V ) und λ, µ ∈ K beliebig gew¨ ahlt. Dann gibt es a′ , b′ ∈ V mit f (a′ ) = a und f (b′ ) = b. Folglich haben wir λ · a + µ · b = λ · f (a′ ) + µ · f (b′ ) = f (λ · a′ + µ · b′ ) ∈ V (f ). Satz 10.1.2 Seien V und W Vektorr¨aume ¨ uber dem K¨orper K. Seien außerdem B := {bi | i ∈ I} eine Basis von V und A := {ai | i ∈ I} eine Teilmenge von W . Dann gilt: (a) Jede lineare Abbildung f : V → W ist vollst¨andig durch die Angabe von f (B) := {f (bi ) | i ∈ I} bestimmt. (b) Es gibt genau eine lineare Abbildung f : V → W mit f (bi ) = ai f¨ ur alle i ∈ I. Diese Abbildung l¨aßt sich wie folgt mit Hilfe der Basis B definieren: x ∈ V =⇒ ∃b1 , ..., bn ∈ B ∃x1 , ..., xn ∈ K : f (x) = f (x1 · b1 + ... + xn · bn ) = x1 · f (b1 ) + ... + xn · f (bn ) = x1 · a1 + ... + xn · an .
332
10 Lineare Abbildungen
Beweis. Die Behauptungen folgen unmittelbar aus unseren S¨atzen des Kapitels 4 u ¨ ber Basen eines Vektorraums und der Definition einer linearen Abbildung. Satz 10.1.3 Sei f eine lineare Abbildung von K n×1 in K m×1 . Dann existiert eine Matrix A ∈ K m×n mit ∀x ∈ K n×1 : f (x) = A · x.
(10.4)
Beweis. Sei x = (x1 , ..., xn )T ∈ V . Als Basis B von V w¨ahlen wir die Standardbasis e1 = (1, 0, ..., 0)T , ..., en = (0, 0, ..., 0, 1)T . Außerdem sei f (ej ) := (a1j , a2j , ..., amj )T , j = 1, 2, ..., n. Dann gilt nach Satz 10.1.2 f (x) = f (x1 · e1 + ... + xn · en ) = x1 · f (e1 ) + ... + xn · f (en )
⎛
⎞ x1 ⎜ x2 ⎟ ⎟ = f (e1 ) f (e2 ) ... f (en ) · ⎜ ⎝ ... ⎠ xn ⎛ ⎞ ⎛ ⎞ a11 a12 ... a1n x1 ⎜ a21 a22 ... a2n ⎟ ⎜ x2 ⎟ ⎟ ⎜ ⎟ = ⎜ ⎝ . . . . . . . . . . . . . . . . . ⎠ · ⎝ ... ⎠ . am1 am2 ... amn xn Der obige Satz l¨ aßt sich noch etwas verallgemeinern: Satz 10.1.4 Sei f eine lineare Abbildung von K Vn in K Wm (m, n ∈ N). Auur V und BW eine Basis f¨ ur ßerdem bezeichne BV := (b1 , ..., bn ) eine Basis f¨ W . Dann existiert eine Matrix Af ∈ K m×n (Abbildungsmatrix genannt) mit (10.5) Af := (f (b1 )/B , f (b2 )/B , ..., f (bn )/B ) W
W
W
und ∀x ∈ V : f (x)/B
W
= Af · x/B . V
(10.6)
(Anstelle von Af wird auch Af (BV , BW ) geschrieben, um die Abh¨angigkeit der Matrix Af von den gew¨ahlten Basen BV und BW anzugeben.) Beweis. Indem man von einer Darstellung x = x1 · b1 + ... + xn bn f¨ ur ein beliebiges x ∈ V ausgeht und von der Gleichung f (x) = x1 ·f (b1 )+...+xn ·f (bn ) die Koordinatendarstellung bez¨ uglich der Basis BW betrachtet, kann man
10.1 Allgemeines u ¨ ber lineare Abbildungen
333
¨ diesen Satz analog zu Satz 10.1.3 beweisen (UA). Zur Illustration von Satz 10.1.4 noch ein Beispiel: Sei V der Vektorraum aller Polynome, die h¨ ochstens den Grad n haben, mit Koeffizienten aus R u orper R: ¨ ber dem K¨ V := Pn = {pn | ∃a0 , ..., an ∈ R : ∀x ∈ R :
pn (x) = an · xn + an−1 · xn−1 + ... + a1 · x + a0 }.
Als lineare Abbildung von V in V w¨ ahlen wir f (pn )(x) := (
dpn =)n·an ·xn−1 +(n−1)·an−1 ·xn−1 +...+2·a2 ·x+a1 . (10.7) dx
Indem wir BV = BW = (xn , xn−1 , ..., x, 1) setzen und f (xn ) = n · xn−1 , ..., f (x) = 1, f (1) = 0 ber¨ ucksichtigen, erhalten wir f¨ ur Af aus Satz 10.1.4 die Matrix ⎛ ⎞ 0 0 0 ... 0 0 ⎜n 0 0 ... 0 0 ⎟ ⎟ ⎜ ⎜ 0 n − 1 0 ... 0 0 ⎟ ⎜ ⎟ ⎜0 0 n − 2 ... 0 0 ⎟ ⎜ ⎟. ⎜ ...................... ⎟ ⎜ ⎟ ⎝0 0 0 ... 0 0 ⎠ 0 0 0 ... 1 0 F¨ ur jede lineare Abbildung f : V → W ist nach Satz 10.1.1 f (V ) ein Vektorraum. Folglich k¨onnen wir den folgenden Begriff einf¨ uhren: Definition Sei f : V → W eine lineare Abbildung. Die Dimension von f (V ) heißt der Rang von f und sie wird mit rg f abgek¨ urzt. Satz 10.1.5 Sei f : V → W eine lineare Abbildung, die die Voraussetzungen aus Satz 10.1.4 erf¨ ullt. Dann gilt rg f = rg Af .
(10.8)
Beweis. Nach Voraussetzung ist BV = (b1 , ..., bn ) eine Basis f¨ ur V , womit nach Satz 10.1.2 f (V ) = [{f (b1 ), ..., f (bn )}] gilt. Folglich ist rg f = dim f (V ) gleich der Maximalzahl linear unabh¨ angiger Vektoren unter den Vektoren f (b1 ), ..., f (bn ). Wegen Satz 4.7.1, (b) stimmt diese Maximalzahl mit dem Rang der Matrix Af = (f (b1 )/B , ..., f (bn )/B ) u ¨ berein. Also gilt (10.8). W
W
Satz 10.1.6 Sei f : Vn −→ Wm die durch ∀x ∈ V : f (x)/B
W
= Af · x/B V
(10.9)
334
10 Lineare Abbildungen
definierte lineare Abbildung, wobei BV eine Basis des Vektorraums V und BW ′ eine Basis des Vektorraums W ist. W¨ahlt man die neuen Basen BV′ bzw. BW f¨ ur V bzw. W , so l¨aßt sich f mit Hilfe von ′ A′f := M−1 (BW , BW ) · Af · M(BV , BV′ )
(10.10)
auch wie folgt beschreiben: ∀x ∈ V : f (x)/B ′ = A′f · x/B ′ . W V
(10.11)
¨ Beweis. Nach Satz 4.7.2 existieren die sogenannten Ubergangsmatrizen ′ ′ M(BV , BV ) und M(BW , BW ) mit den Eigenschaften x/B = M(BV , BV′ ) · x/B ′ , V V
f (x)/B
W
′ ) · f (x)/B ′ . = M(BW , BW W
Mit Hilfe dieser Gleichungen erh¨ alt man aus (10.9) die Gleichung ′ ) · f (x)/B ′ = Af · M(BV , BV′ ) · x/B ′ , M(BW , BW W
V
aus der sich die Behauptung (10.11) ergibt. Definition
Sei f : V → W eine lineare Abbildung. Dann heißt die Menge Ker f := {a | f (a) = o}
(10.12)
Kern von f . Beispiel Sei f die durch ∀x ∈ R3×1
⎛
⎞ 1 0 0 : f (x) := ⎝ 1 1 1 ⎠ · x 2 1 1
(10.13)
definierte Abbildung von R3×1 in R3×1 . Dann gilt ⎧ ⎛ ⎫ ⎞ 0 ⎨ ⎬ Ker f = t · ⎝ −1 ⎠ | t ∈ R . ⎩ ⎭ 1
Satz 10.1.7 F¨ ur jede lineare Abbildung f : V → W ¨ uber K ist Ker f ein Untervektorraum von V . Beweis.
Wegen f (o) = f (a − a) = f (a) − f (a) = o
ist o ∈ Ker f und damit Ker f = ∅. Seien a, b ∈ V und λ, µ ∈ K. Dann gilt f (λ · a + µ · b) = f (λ · a) + f (µ · b) = λ · f (a) +µ · f (b) = o, =o
=o
10.1 Allgemeines u ¨ ber lineare Abbildungen
335
d.h., λ·a+µ·b ∈ Ker f . Nach Satz 4.2.1 ist Ker f folglich ein Untervektorraum von V . Wegen Satz 10.1.7 l¨ aßt sich folgender Begriff einf¨ uhren. Definition F¨ ur endlich-dimensionale Vektorr¨aume V und einer beliebigen linearen Abbildung f : V → W heißt def f := dim (Ker f ) der Defekt von f . Beispiel F¨ ur die lineare Abbildung (10.13) haben wir def f = 1. Satz 10.1.8 Sei f eine lineare Abbildung von
K Vn
in
K Wm .
Dann gilt
def f + rg f = dim V.
(10.14)
Beweis. Nach Satz 10.1.4 existiert f¨ ur f eine Matrix Af ∈ K m×n mit f (x)/B = Af ·x/B . Ker f ist dann die Menge aller L¨osungen von f (x)/B = W V W Af · x/B = o und die Dimension dieses L¨ osungsraumes ist nach Satz 3.4.4 V
gleich n − rg Af . Also gilt (10.14).
Durch eine lineare Abbildung f : V → W (wie durch jede andere Abbildung auch) wird V (wie in Satz 1.4.4 beschrieben) in disjunkte Teilmengen zer¨ legt und man kann auf V die sogenannte von f induzierte Aquivalenzrelation (kurz: Abbildungs¨ aquivalenz) Rf ∀a, b ∈ V : (a, b) ∈ Rf :⇐⇒ f (a) = f (b)
(10.15)
definieren, die wir nachfolgend n¨ aher untersuchen wollen. ¨ Lemma 10.1.9 F¨ ur die in (10.15) definierte Aquivalenzrelation gilt: ∀a, b ∈ V : (a, b) ∈ Rf ⇐⇒ a − b ∈ Ker f. Beweis.
(10.16)
¨ (10.16) ergibt sich aus folgenden Aquivalenzen:
(a, b) ∈ Rf ⇐⇒ f (a) = f (b) ⇐⇒ f (a) − f (b) = o ⇐⇒ a − b ∈ Ker f. f (a−b)
Lemma 10.1.10 Bezeichne U einen Untervektorraum des Vektorraums V uber K und sei R die wie folgt definierte Relation auf V : ¨ ∀a, b ∈ V : (a, b) ∈ R :⇐⇒ a − b ∈ U. Dann gilt: ¨ (a) R ist eine Aquivalenzrelation.
(10.17)
336
10 Lineare Abbildungen
¨ (b) F¨ ur beliebiges a ∈ V ist die Aquivalenzklasse [a]R := {x ∈ V | (a, x) ∈ R} auch wie folgt beschreibbar: [a]R = a + U := {a + x | x ∈ U }.
(10.18)
(c) R ist mit den Verkn¨ upfungen + und · von V vertr¨aglich. (d) F¨ ur U = Ker f ist R = Rf . Beweis. (a): R ist reflexiv, da a − a = o ∈ U f¨ ur alle a ∈ V . R ist symmetrisch, da aus a − b ∈ U auch −(a − b) = b − a ∈ U und damit (b, a) ∈ R folgt. Die Transitivit¨ at von R l¨ aßt sich wie folgt zeigen: (a, b) ∈ R ∧ (b, c) ∈ R =⇒ a − b ∈ U ∧ b − c ∈ U =⇒ (a − b) + (b − c) = a − c ∈ U =⇒ (a, c) ∈ R. (b) ergibt sich wie folgt: b ∈ [a]R ⇐⇒ (a, b) ∈ R
⇐⇒ a − b ∈ U
⇐⇒ ∃c ∈ U : a − b = c ⇐⇒ ∃c ∈ U : b = a − c ⇐⇒ b ∈ a + U. (c): Wegen (a, b) ∈ R ∧ (c, d) ∈ R =⇒ a − b ∈ U ∧ c − d ∈ U =⇒ (a − b) + (c − d) ∈ U =⇒ (a + c) − (b + d) ∈ U =⇒ (a + c, b + d) ∈ R ist R mit + und wegen (a, b) ∈ R =⇒ a − b ∈ U =⇒ ∀λ ∈ K : λ · (a − b) ∈ U =⇒ ∀λ ∈ K : λ · a − λ · b ∈ U =⇒ ∀λ ∈ K : (λ · a, λ · b) ∈ R mit · vertr¨ aglich. (d) folgt aus Lemma 10.1.9. Wir betrachten nun f¨ ur einen beliebigen Untervektorraum U des Vektorraums V u ¨ ber K die Faktormenge V/U := {a + U | a ∈ U },
(10.19)
10.1 Allgemeines u ¨ ber lineare Abbildungen
337
auf der sich nach Satz 1.4.5 und Lemma 10.1.10, (c) folgende Verkn¨ upfungen definieren lassen: ∀a, b ∈ V ∀λ ∈ K : (a + U ) ⊕ (b + U ) := (a + b) + U
(10.20)
λ ⊙ (a + U ) := (λ · a) + U. Lemma 10.1.11 F¨ ur jeden Untervektorraum U eines Vektorraums K V ist die Menge V/U (siehe (10.19)) mit den Verkn¨ upfungen ⊕, ⊙ aus (10.20) ein Vektorraum ¨ uber dem K¨orper K. Beweis. Offenbar ist ⊕ eine innere Verkn¨ upfung und ⊙ eine ¨außere Verkn¨ upfung auf V/U . (V/U ; ⊕) ist eine kommutative Gruppe, da U = o + U ∈ V/U ein neutrales Element ist, −a + U das zu a + U inverse Element und (a + U ) ⊕ ((b + U ) ⊕ (c + U )) = (a + U ) ⊕ ((b + c) + U ) = (a + (b + c)) + U = ((a + b) + c) + U = ((a + U ) ⊕ (b + U )) ⊕ (c + U ) wegen der Assoziativit¨ at von + sowie (a + U ) ⊕ (b + U ) = (a + b) + U = (b + a) + U = (b + U ) ⊕ (a + U ) wegen der Kommutativit¨ at von + gilt. Außerdem haben wir 1 ⊙ (a + U ) = (1 · a) + U = a + U, (λ · µ) ⊙ (a + U ) = ((λ · µ) · a) + U = (λ · (µ · a)) + U = λ ⊙ ((µ · a) + U ) = λ ⊙ (µ ⊙ (a + U )), (λ + µ) ⊙ (a + U ) = ((λ + µ) · a) + U = (λ · a + µ · a) + U = ((λ · a) + U ) ⊕ ((µ · a) + U ), λ ⊙ ((a + U ) ⊕ (b + U )) = λ ⊙ ((a + b) + U ) = (λ · (a + b)) + U = (λ · a + λ · b) + U = (λ ⊙ (a + U )) ⊕ (λ ⊙ (b + U )).
338
10 Lineare Abbildungen
Satz 10.1.12 (Homomorphiesatz f¨ ur Vektorr¨ aume) (a) Sei f : V → W eine lineare Abbildung des Vektorraums V in den Vektorraum W ¨ uber dem K¨orper K. Dann sind Ker f (⊆ V ) sowie V/Ker f (mit den Verkn¨ upfungen ⊕ und ⊙) Vektorr¨aume, und es gilt V/Ker f ∼ = f (V ).
(10.21)
Umgekehrt: (b) Sei U ein Untervektorraum des Vektorraums K V . Dann ist V/U ein Vektorraum ¨ uber K, und es existiert eine lineare Abbildung ϕ : V → V/U mit ∀x ∈ V : ϕ(x) = x + U. (10.22) Beweis. (a): Nach Satz 10.1.7 ist Ker f ein Untervektorraum von V und damit U := V/Ker f nach Lemma 10.1.11 ein Vektorraum u ¨ ber K mit den Verkn¨ upfungen ⊕ und ⊙. F¨ ur den Nachweis von (10.21) betrachten wir die Abbildung g mit g : V/Ker f → f (V ), g(a + U ) := f (a). Die Abbildung g ist offenbar nach Definition surjektiv und wegen g(a + U ) = g(b + U ) =⇒ f (a) = f (b) =⇒ (a, b) ∈ Rf =⇒ [a]Rf = [b]Rf =⇒ a + U = b + U (siehe Lemma 10.1.10 und Satz 1.3.1) auch injektiv. Also ist g eine bijektive Abbildung. Die Vertr¨ aglichkeit von ⊕ und ⊙ mit g und damit unsere Behauptung (10.21) folgt dann aus g(λ ⊙ (a + U ) ⊕ µ ⊙ (b + U )) = g((λ · a + µ · b) + U ) = f (λ · a + µ · b) = λ · f (a) + µ · f (b) = λ · g(a + U ) + µ · g(b + U ). (b): Sei U ein Untervektorraum von K V . Dann ist nach Lemma 10.1.11 V/U mit den Verkn¨ upfungen ⊕ und ⊙ ein Vektorraum u ¨ ber K. Wir haben zu zeigen, daß die durch (10.22) definierte Korrespondenz ϕ linear ist. Offenbar ist ϕ eine Abbildung, und f¨ ur beliebige a, b ∈ V , λ, µ ∈ K gilt:
10.2 Adjungierte Abbildungen
339
ϕ(λ · a + µ · b) = (λ · a + µ · b) + U = (λ · a + U ) ⊕ (µ · b + U ) = (λ ⊙ (a + U )) ⊕ (µ ⊙ (b + U )) = (λ ⊙ ϕ(a)) ⊕ (µ ⊙ ϕ(b)). Satz 10.1.13 Sei f : V → W eine lineare Abbildung. Dann ist f genau dann eine isomorphe Abbildung von V auf W , wenn f surjektiv ist und Ker f = {o} gilt. Beweis. =⇒“: Sei f : V → W eine isomorphe Abbildung. Folglich ist f sur” jektiv. Angenommen, Ker f = {o}. Dann gibt es zwei verschiedene a, b ∈ V mit f (a) = f (b) = o, was der Injektivit¨ at von f widerspricht. ⇐=“: Die lineare Abbildung f : V → W sei surjektiv, und es gelte ” Ker f = {o}. Die zu zeigende Injektivit¨ at von f ergibt sich aus: f (a) = f (b) =⇒ f (a − b) = o =⇒ a − b ∈ Ker f =⇒ a − b = o =⇒ a = b. Satz 10.1.14 Sei f : V → W eine lineare Abbildung und B := {bi | i ∈ I} eine Basis von V . Dann ist f genau dann eine isomorphe Abbildung von V auf W , wenn {f (bi ) | i ∈ I} eine Basis von B ist. Beweis.
¨ UA.
10.2 Adjungierte Abbildungen Definition Seien K V bzw. K W Vektorr¨ aume mit den Skalarprodukten ϕ bzw. ψ, K ∈ {R, C}. Falls nichts anderes angegeben ist, w¨ ahlen wir im Fall V = W stets ϕ = ψ. Außerdem sei f eine lineare Abbildung von V in W . Dann heißt eine Abbildung f ⋆ : W → V mit der Eigenschaft ∀x ∈ V ∀y ∈ W : ψ(f (x), y) = ϕ(x, f ⋆ (y))
(10.23)
eine zu f adjungierte Abbildung. Beispiel
W¨ ahlt man K := C, V := Cn×1 = W , f (x) := A · x,
ur alle x1 , x2 ∈ V ), ϕ = ψ und ϕ als Standardskalarprodukt (d.h., ϕ(x1 , x2 ) := xT1 · x2 f¨ so ist T f ⋆ (y) := A · y (y ∈ W ) die zu f adjungierte Abbildung, da
ψ(f (x), y) = (f (x))T · y = (A · x)T · y = xT · AT · y und
ϕ(x, f ⋆ (y)) = xT · (f ⋆ (y)) = xT · AT · y.
340
10 Lineare Abbildungen
Im allgemeinen muß zu einer linearen Abbildung keine adjungierte Abbildung geh¨ oren. Falls sie jedoch existiert, ist sie eindeutig bestimmt, wie im n¨ achsten Satz gezeigt wird. Wie dann f¨ ur endlich-dimensionale VRe u ¨ ber C solche adjungierten Abbildungen aussehen, hat bereits das obige Beispiel gezeigt. Genauer: Satz 10.2.1 Es sei K ∈ {R, C} und produkten ϕ bzw. ψ. Dann gilt:
KV
sowie
KW
Vektorr¨ aume mit den Skalar-
(a) Existiert zu einer linearen Abbildung f : V → W die adjungierte Abbildung f ⋆ : W → V , dann ist sie eindeutig bestimmt. (b) Sind V und W endlich-dimensionale Vektorr¨ aume, dann gibt es zu jeder lineaur V bzw. W ren Abbildung f : V → W orthonormierte Basen BV bzw. BW f¨ sowie eine Matrix A ∈ K (dim W )×(dim V ) mit der Eigenschaft ∀x ∈ V : f (x)/BW = A · x/BV .
(10.24)
aßt sich dann Die zugeh¨ orige (eindeutig bestimmte) adjungierte Abbildung f ⋆ l¨ wie folgt beschreiben: ∀y ∈ W : f ⋆ (y)/BV = A⋆ · y/BW , wobei ⋆
A :=
(
(10.25)
AT , falls K = R, T
A , falls K = C.
Beweis. (a): Angenommen, es gibt zu f zwei verschiedene adjungierte Abbildungen f1⋆ und f2⋆ . Wegen ϕ(x, f1⋆ (y) − f2⋆ (y)) = ϕ(x, f1⋆ (y)) − ϕ(x, f2⋆ (y)) = ψ(f (x), y) − ψ(f (x), y) = o gilt
ϕ(x, f1⋆ (y) − f2⋆ (y)) = o
(10.26)
f1⋆ (y)
− f2⋆ (y) in (10.26) f1⋆ (y)
f¨ ur alle x ∈ V und alle y ∈ W . Indem wir x = (10.26) w¨ ahlen, erhalten wir aus der positiven Definitheit von ϕ und − f2⋆ (y) = o f¨ ur alle y ∈ W , im Widerspruch zu f1⋆ = f2⋆ . Also gilt (a). (b): (10.24) wurde bereits im Satz 10.1.4 gezeigt. Da BV und BW orthonormierte Basen sind, gilt nach Satz 6.5.3 ∀x, x′ ∈ V ∀y, y′ ∈ W : ϕ(x, x′ ) = xT/BV · x′/BV ∧ ψ(y, y′ ) = yT/BW · y′/BW . Analog zum obigen Beispiel pr¨ uft man leicht nach, daß die durch (10.25) definierte Abbildung f ⋆ eine zu f adjungierte Abbildung ist, die nach (a) eindeutig bestimmt ist. Satz 10.2.2 Sei f : V → W eine lineare Abbildung, f¨ ur die die adjungierte Abbildung f ⋆ existiert. Dann gilt:
10.3 Normale Abbildungen (a) (b) (c) (d) (e) (f )
341
ur alle x ∈ V und alle y ∈ W ; (f ⋆ )⋆ = f , d.h., ϕ(f ⋆ (y), x) = ψ(y, f (x)) f¨ Ker f ⋆ = (f (V ))⊥ ; Ker f = (f ⋆ (W ))⊥ ; f surjektiv =⇒ f ⋆ injektiv; f ⋆ surjektiv =⇒ f injektiv; falls rg f (bzw. rg f ⋆ ) endlich ist, gilt: f (bzw. f ⋆ ) surjektiv ⇐⇒ f ⋆ (bzw. f ) injektiv.
Beweis. Seien f und f ⋆ lineare Abbildungen, die (10.23) erf¨ ullen. (a) folgt aus ϕ(f ⋆ (y), x) = ϕ(x, f ⋆ (y)) = ψ(f (x), y) = ψ(y, f (x)). (b) folgt aus y ∈ Ker f ⋆ ⇐⇒ f ⋆ (y) = 0
⇐⇒ ∀x ∈ V : ϕ(x, f ⋆ (y)) = 0 = ψ(f (x), y)
⇐⇒ y ∈ (f (V ))⊥ . (c) folgt aus (a) und (b), da (a)
(b)
Ker f = Ker (f ⋆ )⋆ = (f ⋆ (W ))⊥ . (d): Sei f surjektiv. Dann gilt (f (V ))⊥ = {o} und (wegen (b)) Ker f ⋆ = {o}. Nach Satz 10.1.13 ist dies nur f¨ ur eine injektive Abbildung f m¨ oglich. (e) folgt aus (d) und (a): (d)
(a)
f ⋆ surjektiv =⇒ (f ⋆ )⋆ injektiv =⇒ f injektiv. (f): Wegen (d) und (e) haben wir bei beiden Aussagen nur ⇐=“ zu beweisen. (f) ” folgt somit aus f ⋆ injektiv
(b)
=⇒ Ker f ⋆ = {o} =⇒ (f (V ))⊥ = {o} 6.5.12
=⇒ f (V ) = {o}⊥ = W =⇒ f surjektiv
und f injektiv
(c)
=⇒ {o} = Ker f = (f ⋆ (W ))⊥ 6.5.12
=⇒ f ⋆ (W ) = {o}⊥ = W =⇒ f ⋆ surjektiv.
10.3 Normale Abbildungen Definition Sei K V ein VR mit Skalarprodukt ϕ. Die lineare Abbildung f : V → V heißt normal, wenn die zu f adjungierte Abbildung f ⋆ existiert und die Eigenschaft f ⋆ 2f = f 2f ⋆ besitzt.
342
10 Lineare Abbildungen
Beispiel W¨ ahlt man als VR K V := R Rn×1 , so hat eine lineare Abbildung f : V → V die Gestalt f (x) = A · x mit einer passend gew¨ ahlten Matrix A ∈ Rn×n . ⋆ T Nach Satz 10.2.1, (b) ist dann f (x) := A · x die zu f geh¨ orende adjungierte Abbildung. Es gilt dann (f ⋆ 2f )(x) = A · AT · x, und (f 2f ⋆ )(x) = AT · A · x, womit f nur dann normal sein kann, wenn AT · A = A · AT ist. Damit sind z.B. alle linearen Abbildungen f (x) = A · x normal, f¨ ur die A eine Diagonalmatrix oder eine symmetrische oder orthogonale Matrix ist. Satz 10.3.1 Sei f : V → V eine lineare Abbildung. f ist genau dann normal, wenn eine zu f adjungierte Abbildung f ⋆ mit ∀x, y ∈ V : ϕ(f (x), f (y)) = ϕ(f ⋆ (x), f ⋆ (y)).
(10.27)
existiert. Beweis. =⇒“: Sei f normal, d.h., die zu f adjungierte Abbildung f ⋆ existiert, ” ⋆ und es gilt f 2f = f 2f ⋆ . Hieraus, aus der Definition von f ⋆ und Satz 10.2.2, (a) folgt dann ϕ(f (x), f (y)) = ϕ(x, f ⋆ (f (y))) = ϕ(x, (f ⋆ 2f )(y)) = ϕ(x, f (f ⋆ (y))) = ϕ(f ⋆ (x), f ⋆ (y)). | {z } (f 2f ⋆ )(y)
⇐=“: Es gelte (10.27). Dann haben wir unter Beachtung von Satz 10.2.2, (a) ” ϕ(f (f ⋆ (x), y) = ϕ(f ⋆ (x), f ⋆ (y)) = ϕ(f (x), f (y)) = ϕ(f ⋆ (f (x)), y), woraus sich
∀x, y ∈ V : ϕ((f ⋆ 2f )(x) − (f 2f ⋆ )(x), y) = o ⋆
(10.28)
⋆
ergibt. Da man in (10.28) auch y = (f 2f )(x) − (f 2f )(x) w¨ ahlen kann, folgt aus (10.28) und der positiven Definitheit von ϕ, daß (f ⋆ 2f )(x) = (f 2f ⋆ )(x) f¨ ur alle x ∈ V gilt. Also ist f normal. Satz 10.3.2 F¨ ur jede normale Abbildung f : V → V ist Ker f = Ker f ⋆ . Beweis. Ist f eine normale Abbildung, so gilt ϕ(f (x), f (x)) = ϕ(f ⋆ (y), f ⋆ (y)) nach Satz 10.3.1. Aus der positiven Definitheit von ϕ ergibt sich dann ϕ(f (x), f (x)) = 0 ⇐⇒ f (x) = 0 ⇐⇒ f (y) = 0, womit Ker f = Ker f ⋆ ist. Als n¨ achstes verallgemeinern wir einige Begriffe und S¨ atze aus Kapitel 6. Definition Es sei V einen Vektorraum u ¨ ber K, f : V −→ V eine lineare Abbildung und λ ∈ K. Dann heißt λ ein Eigenwert von f , wenn es ein x ∈ V \{o}, einen sogenannten Eigenvektor von λ, mit f (x) = λ · x gibt. Offenbar gilt nach Satz 3.4.5:
10.3 Normale Abbildungen
343
Satz 10.3.3 Es sei n ∈ N und V ein n-dimensionaler Vektorraum ¨ uber dem K¨ orper K. Sei f : V −→ V eine lineare Abbildung, die mittels einer Basis B von V und aß Satz 10.1.6) durch einer Matrix Af ∈ K n×n (gem¨ ∀x ∈ V : f (x)/B = Af · x/B
(10.29)
beschrieben ist. Dann ist λ ∈ K genau dann eine Eigenwert von f , wenn λ ein Eigenwert der Matrix Af ist bzw. wenn det(Af − λ · En ) = 0 gilt. Satz 10.3.4 Sei f : V → V eine normale Abbildung. Dann gilt:
(a) f und f ⋆ besitzen dieselben Eigenvektoren. (b) a ∈ V ist genau dann ein Eigenvektor von f zum Eigenwert λ, wenn a ein Eigenvektor von f ⋆ zum Eigenwert λ ist.
Beweis.
Aus der Definition einer adjungierten Abbildung und aus Satz 10.3.1 folgt ϕ(f (a) − λ · a, f (a) − λ · a) = ϕ(f (a), f (a)) − ϕ(λ · a, f (a)) − ϕ(f (a), λ · a) + ϕ(λ · a, λ · a) = ϕ(f ⋆ (a), f ⋆ (a)) − λ · ϕ(f ⋆ (a), a) − λ · ϕ(a, f ⋆ (a)) + |λ|2 · ϕ(a, a) = ϕ(f ⋆ (a) − λ · a, f ⋆ (a) − λ · a)).
Folglich gilt
f (a) = λ · a ⇐⇒ f ⋆ (a) = λ · a,
woraus sich unmittelbar die Behauptungen des Satzes ergeben. Satz 10.3.5 Es sei n ∈ N und V ein n-dimensionaler VR u ¨ber K ∈ {R, C} mit dem Skalarprodukt ϕ. Dann gilt: (a) Im Fall K = C ist eine lineare Abbildung f : V → V genau dann normal, wenn es eine bez¨ uglich ϕ orthonormierte Basis f¨ ur V aus Eigenvektoren von f gibt. (b) Im Fall K = R ist eine lineare Abbildung f : V → V genau dann normal, wenn f genau n reelle Eigenwerte (Vielfachheiten mitgez¨ ahlt) und eine bez¨ uglich ϕ orthonormierte Basis f¨ ur V aus Eigenvektoren von f besitzt. Beweis. (a): Da auf V ein Skalarprodukt ϕ definiert ist, besitzt V nach Satz 6.5.2 eine bez¨ uglich ϕ orthonormierte Basis B. Wegen Satz 6.5.3 gilt dann ϕ(x, y) = ur alle x, y ∈ V . F¨ ur jede lineare Abbildung f : V −→ V existiert (x/B )T · y/B f¨
außerdem eine Matrix Af ∈ Cn×n mit der Eigenschaft (10.5) aus Satz 10.1.4, wobei BV = BW := B. =⇒“: Sei f : V −→ V eine normale Abbildung. Aus obigen Bemerkungen u ¨ ber ” f und ϕ, Satz 10.3.1 und Satz 10.2.1 folgt dann die Gleichung ATf · Af = Af · Af , aus der sich die Bedingung (α) aus Satz 8.3.8 ergibt. Nach Satz 8.3.8, (a) existiert folglich eine unit¨ are Matrix B mit 1 0 λ1 0 ... 0 B 0 λ2 ... 0 C T C B · Af · B = B (10.30) @ ............. A, 0 0 ... λn
344
10 Lineare Abbildungen
wobei f¨ ur jedes j ∈ {1, 2, ..., n} die j-te Spalte von B ein EV zum EW λj ∈ C von Af ¨ ist (siehe Satz 8.1.4). Da B offensichtlich regul¨ ar ist, kann sie als Ubergangsmatrix M(B, B ′ ) von B zu einer anderen Basis B ′ := (b′1 , ..., b′n ) von V aufgefaßt werden. Wegen M(B, B ′ ) = ((b′1 )/B ... (b′n )/B ) (siehe Satz 4.6.2), ist B ′ durch B und B eindeutig bestimmt. Mit Hilfe von (10.30) und Satz 7.3.1, (a2 ) ist dann leicht zu zeigen, daß B ′ eine bez¨ uglich ϕ orthonormierte Basis f¨ ur V aus EVen von f ist. ⇐=“: Sei B eine bez¨ uglich ϕ orthonormierte Basis, die aus Eigenvektoren zu den ” Eigenwerten λ1 , ..., λn von f besteht. Dann gilt nach Satz 10.1.4 Af = (f (b1 )/B ... f (bn )/B ) = (λ1 · (b1 )/B ... λn · (bn )/B ), womit Af eine Diagonalmatrix ist. Mit Hilfe von Satz 10.2.1 pr¨ uft man nun nach, daß f eine normale Abbildung ist.
10.4 Selbstadjungierte und antiselbstadjungierte Abbildungen Definition Eine lineare Abbildung f : V → V heißt selbstadjungiert, falls f = f ⋆ ist. Offenbar sind selbstadjungierte Abbildungen auch normal. Der folgende Satz ergibt sich unmittelbar aus der obigen Definition und Satz 10.2.1: Satz 10.4.1 Es sei K ∈ {R, C}, K V ein n-dimensionaler VR, B eine orthonormierte Basis von V bez. des Skalarproduktes ϕ und f die durch f (x)/B := Af · x/B definierte lineare Abbildung. Dann ist f genau dann selbstadjungiert, wenn ( ATf , falls K = R, Af = T Af , falls K = C gilt. Einen Spezialfall des nachfolgenden Satzes hatten wir bereits im Satz 8.2.9 behandelt: Satz 10.4.2 (a) Eine selbstadjungierte Abbildung f eines Vektorraums V ¨ uber C besitzt nur reelle Eigenwerte. (b) Ist f eine selbstadjungierte Abbildung eines VR V ¨ uber R, so hat die sogenannte komplexe Fortsetzung fb : V + i · V −→ V + i · V von f , die definiert ist durch fb(x) = fb(a + i · b) := f (a) + i · f (b)
f¨ ur alle x ∈ V + i · V , nur reelle Eigenwerte. Beweis. (a): Sei λ ein beliebig gew¨ ahlter EW von f und x ein zugeh¨ origer EV. Aus Satz 10.3.4 folgt dann, daß λ eine EW von f ⋆ mit dem EV x ist. Wegen f = f ⋆ ist damit x sowohl EV zum EW λ als auch zum EW λ. Hieraus folgt (λ − λ) · x = o, was nur f¨ ur λ = λ gelten kann. Also ist λ reell.
10.5 Unit¨ are und orthogonale Abbildungen, Isometrien
345
¨ u (b): Als UA ¨ berlege man sich, daß fb selbstadjungiert ist. Folglich ergibt sich (b) aus (a).
Definition Eine lineare Abbildung f : V → V u ¨ ber einem VR V mit Skalarprodukt heißt antiselbstadjungiert, falls die adjungierte Abbildung f ⋆ existiert und f ⋆ = −f ist. Als Folgerung aus obiger Definition und Satz 10.2.1 erh¨ alt man: Satz 10.4.3 Es sei K ∈ {R, C}, K V ein n-dimensionaler VR, B eine orthonormierte Basis von V bez. des Skalarproduktes ϕ und f die durch f (x)/B := Af · x/B definierte lineare Abbildung. Dann ist f genau dann antiselbstadjungiert, wenn ( −ATf , falls K = R, Af = T −Af , falls K = C ist. Eine Verallgemeinerung von Satz 8.3.10 ist der folgende Satz. Satz 10.4.4 Bezeichne f : V → V eine lineare Abbildung ¨ uber den VR Skalarprodukt ϕ. Dann ist f genau dann antiselbstadjungiert, wenn
KV
mit
∀x ∈ V : Re(ϕ(f (x), x)) = 0 gilt. Beweis.
¨ UA.
10.5 Unit¨ are und orthogonale Abbildungen, Isometrien Definitionen Es sei K ∈ {R, C}, K V ein VR mit dem Skalarprodukt ϕ und ein VR mit dem Skalarprodukt ψ. Die lineare Abbildung f : V → W heißt orthogonal (bzw. unit¨ ar), falls K = R (bzw. K = C) und KW
∀x ∈ V : ϕ(x, x) = ψ(f (x), f (x))
(10.31)
gilt. Ist speziell V = W , so nennt man eine orthogonale (bzw. unit¨ are) Abbildung eine Isometrie oder eine isometrische Abbildung. Satz 10.5.1 Es sei K ∈ {R, C}, K V ein n-dimensionaler VR, B eine orthonormierte Basis von V bez. des Skalarproduktes ϕ und f die durch f (x)/B := Af · x/B definierte lineare Abbildung. Dann ist f genau dann eine Isometrie, wenn ( T orthogonal (d.h., A−1 f = Af ), falls K = R, Af T −1 unit¨ ar (d.h., Af = Af ), falls K = C gilt.
346
10 Lineare Abbildungen
Beweis. O.B.d.A. sei K = C. =⇒“: Sei f eine Isometrie. Dann folgt aus (10.31) und der Tatsache, daß B bez¨ uglich ” ϕ orthonormiert ist, ∀x ∈ V : xT/B · x/B = xT/B · (ATf · Af ) · x/B , oglich ist. Folglich gilt Af was nur f¨ ur ATf · Af = En m¨ T
T
· Af = En und damit
A−1 f = Af , was zu zeigen war. ¨ ⇐=“: UA. ” Satz 10.5.2 Es sei K ∈ {R, C}, K V ein VR mit dem Skalarprodukt ϕ und K W ein VR mit dem Skalarprodukt ψ. Außerdem seien die nachfolgend angegebenen Normen mit Hilfe der auf V bzw. W definierten Skalarprodukte erkl¨ art (siehe Satz 6.3.1) und f : V −→ W sei eine lineare Abbildung. Folgende Aussagen sind dann ¨ aquivalent: (a) f : V → W ist eine orthogonale (unit¨ are) Abbildung. (b) ∀x ∈ V : x = 1 =⇒ f (x) = 1. (c) ∀x ∈ V : x = f (x). (d) Sind e1 , e2 , ..., en orthonormierte Vektoren von V , so sind f (e1 ), f (e2 ), ..., f (en ) orthonormierte Vektoren von W , n ∈ N.
Beweis. O.B.d.A. sei K = C. (a) =⇒ (b)“ folgt aus der Definition einer unit¨ aren Abbildung. ” 1 (b) =⇒ (c)“: F¨ ur x = o gilt offenbar (c). Sei nun x = o. Dann ist x
· x = 1 ” 1 und wegen (b) erhalten wir hieraus f ( x · x) = 1 beziehungsweise f (x) = x, w.z.b.w. (c) =⇒ (d)“: Seien e1 , e2 , ..., en orthonormierte Vektoren aus V . Dann gilt ei = 1 ” f¨ ur alle i ∈ {1, ..., n}, was wegen (c) f (ei ) = 1 zur Folge hat. Im Fall i = j (i, j ∈ {1, ..., n}) rechnet man leicht nach, daß f (ei + ej )2 = ψ(f (ei + ej ), f (ei + ej )) = 2 + 2 · Re(ψ(f (ei ), f (ej )))
und
ei + ej 2 = 2
gilt. Wegen (c) folgt hieraus Re(ψ(f (ei ), f (ej ))) = 0. Indem man oben ei + i · ej anstelle von ei + ej w¨ ahlt, kann man analog zu oben Im(ψ(f (ei ), f (ej ))) = 0 zeigen. Also ist ψ(f (ei ), f (ej )) = 0 und damit (d) gezeigt. (d) =⇒ (a)“: Sei x ∈ V beliebig gew¨ ahlt. Dann existieren gewisse orthonormierte ” Vektoren e1 , e2 , ..., en ∈ V und gewisse x1 , ..., xn ∈ K mit x = x1 ·e1 +x2 ·e2 +...+xn ·en . Mit Hilfe dieser Darstellung von x rechnet man nun leicht (unter Verwendung von (d)) nach, daß ϕ(x, x) = |x1 |2 + ... + |xn |2 = ψ(f (x), f (x)) gilt. Folglich ist f eine unit¨ are Abbildung.
10.6 Normalformen linearer Abbildungen Wir betrachten hier nur lineare Abbildungen zwischen endlich-dimensionalen VRen. Solche Abbildungen lassen sich bekanntlich mit Hilfe von Matrizen
10.6 Normalformen linearer Abbildungen
347
beschreiben. Unter der Normalform einer linearen Abbildung f versteht man dann eine solche Beschreibung von f , in der die Matrix Af in m¨oglichst einfacher Struktur vorliegt, d.h., die Matrix Af ist eine Diagonalmatrix oder eine Quasi-Diagonalmatrix. Am einfachsten sind die Normalformen von linearen Abbildungen zwischen verschiedenen Vektorr¨ aumen, wie der n¨ achste Satz zeigt. Satz 10.6.1 Seien V und W zwei verschiedene n-dimensionale Vektorr¨aume ¨ uber dem K¨orper K und f : V −→ W eine lineare Abbildung. Dann existieren Basen BV und BW von V beziehungsweise W mit f (x)/BW = ur beliebige x ∈ V und Af · x/BV f¨ ⎛
⎞ 1 0 0 ... 0 0 ... 0 ⎜ 0 1 0 ... 0 0 ... 0 ⎟ ⎜ ⎟ ⎜ 0 0 1 ... 0 0 ... 0 ⎟ ⎜ ⎟ ⎟ Af = ⎜ ⎜ 0 0 0 .... 1 0 ... 0 ⎟ , ⎜ 0 0 0 .... 0 0 ... 0 ⎟ ⎜ ⎟ ⎝ ................... ⎠ 0 0 0 .... 0 0 ... 0
(10.32)
wobei rg Af = rg f (= dim f (V )).
Beweis. Es sei r := dim f (V ) und U := Ker f . Nach Satz 10.1.7 ist U ein Untervektorraum von V mit der Dimension n−r und V l¨aßt sich mit Hilfe gewisser Vektoren b1 , ..., br in die Nebenklassen U, b1 + U, ..., br + U zerlegen. W¨ahlt man dann noch eine Basis br+1 , ..., bn f¨ ur U aus, so ist BV := (b1 , b2 , ..., bn ) eine Basis f¨ ur V und die Abbildung f ist durch die Bilder der Basiselemente von BV eindeutig bestimmt. Insbesondere ist Bf (V ) := (b′1 , ..., b′r ) mit b′i := f (bi ) (i = 1, ..., r) eine Basis f¨ ur f (V ), die sich zu einer Basis BW von W erg¨anzen l¨aßt. Wegen f (bi ) = 1 · b′i f¨ ur i = 1, ..., r und f (bj ) = o f¨ ur j = r + 1, ..., n folgt unsere Behauptung (10.32) damit aus Satz 10.1.4. F¨ ur die linearen Abbildungen f : K Vn −→ K Vn ist der Aufwand zur Bestimmung einer Normalform erheblich gr¨ oßer. Wir werden uns nachfolgend mit Hilfe der Ergebnisse aus Kapitel 8 nur Normalformen f¨ ur den Fall K = C ¨ u u ¨ berlegen. Dem Leser sei es als UA ¨ berlassen, sich mit Hilfe von S¨atzen aus Abschnitt 8.5 ¨ ahnliche Aussagen f¨ ur den Fall K = R oder f¨ ur einen beliebigen K¨ orper K zu u ¨ berlegen. Eine Folgerung aus Satz 10.1.4, dem Fundamentalsatz der Algebra, Satz 8.5.4 und Satz 4.7.2 ist der folgende Satz: Satz 10.6.2 Es sei V ein n-dimensionaler VR ¨ uber dem K¨orper C mit der Basis B und f : V −→ V eine lineare Abbildung. Die Abbildung f sei (gem¨aß Satz 10.1.4) mit Hilfe einer gewissen Matrix Af ∈ Cn×n durch
348
10 Lineare Abbildungen
f (x)/B := Af · x/B f¨ ur alle x ∈ Cn×1 beschrieben. Dann existieren eine regul¨are Matrix B ∈ Cn×n und eine gewisse Jordan¨ Matrix J ∈ Cn×n mit der Eigenschaft B−1 · Af · B = J. Die aus der Uber′ 2 ′ gangsmatrix M(B, B ) := B ablesbare Basis B von V hat dann die Eigenschaft: (10.33) ∀x ∈ V : f (x)/B ′ = J · x/B ′ .
Auf dem n-dimensionalen Vektorraum V u orper C sei ab jetzt auch ein ¨ ber dem K¨ Skalarprodukt ϕ definiert. Außerdem bezeichne B eine bez¨ uglich ϕ orthonormierte Basis von V . Mit Hilfe der S¨ atze 10.2.1, 10.3.1, 10.4.1 und 10.5.1 u ¨ berlegt man sich nun leicht die folgenden Eigenschaften zweier linearer Abbildungen f und f ⋆ , die durch f (x)/B := Af · x/B beziehungsweise f ⋆ (x)/B := Af ⋆ · x/B f¨ ur alle x ∈ Cn×1 beschrieben sind: T
f ⋆ ist die zu f adjungierte Abbildung ⇐⇒ Af ⋆ = Af , f ist normal
⇐⇒ Af · Af
T
= Af T
f ist selbstadjungiert
⇐⇒ Af = Af ,
f ist antiselbstadjungiert
⇐⇒ Af = −Af ,
f ist isometrisch
⇐⇒ A−1 f = Af .
T
· Af ,
T
T
¨ Aus obigen Uberlegungen und Satz 8.3.8 folgt dann (unter Beachtung der oben angegebenen Vereinbarungen) der Satz 10.6.3 Eine lineare Abbildung f : C Vn −→ C Vn ist genau dann unit¨ ar diagonalisierbar (d.h., die Matrix J aus (10.33) ist eine Diagonalmatrix und die Transformationsmatrix B ist eine unit¨ are Matrix), wenn f eine normale Abbildung ist. Da selbstadjungierte, antiselbstadjungierte oder isometrische Abbildungen auch normale Abbildungen sind, ist eine Folgerung aus Satz 10.6.3 der Satz 10.6.4 Ist die lineare Abbildung f : C Vn −→ C Vn selbstadjungiert, antiselbstadjungiert oder isometrisch, so ist sie unit¨ ar diagonalisierbar.
10.7 Gruppen aus linearen Abbildungen Nachfolgend werden nur Abbildungen von einem VR V in V (sogenannte Endomorphismen) betrachtet. Wir fassen diese Abbildungen zu einer Menge EV := {f | f : V −→ V ist lineare Abbildung} zusammen. Da f¨ ur beliebige f, g ∈ EV stets f 2g ∈ EV gilt3 , 2 nach Satz 1.4.1 ort, gilt: assoziativ ist und offenbar die identische Abbildung zur Menge EV geh¨ 2 3
Siehe Satz 4.6.2. Siehe Beispiel 5 aus 10.2.
10.7 Gruppen aus linearen Abbildungen
349
Lemma 10.7.1 EV := (EV ; 2) ist ein Monoid, d.h., eine Halbgruppe mit Einselement. Im Monoid EV sind nun gewisse Teilmengen sogar Gruppen. Einige Beispiele f¨ ur solche Mengen gibt der nachfolgende Satz an. Satz 10.7.2 Es sei BV := {f ∈ EV | f ist bijektiv}, IV
:= {f ∈ EV | f ist isometrisch und surjektiv},
FV := {f ∈ EV | ∃g ∈ IV ∃λ ∈ K\{0} : f = λ · g}. Dann ist f¨ ur jedes G ∈ {BV , IV , FV } die Struktur G := (G; 2) eine Gruppe. Beweis. Wegen Lemma 10.7.1 ist nur zu zeigen, daß 2 eine innere Verkn¨ upfung auf den angegebenen Mengen ist und zu jedem f ∈ G die inverse Abbildung f −1 existiert, die ebenfalls zu G geh¨ oren muß. F¨ ur G = BV ist dies eine unmittelbare Folgerung aus Satz 1.4.2 und Beispiel 6 aus Abschnitt 10.1. upfung von G, da f¨ ur beliebige f, g ∈ I Sei nun G = IV . Dann ist 2 eine innere Verkn¨ und beliebige x ∈ V ϕ((f 2g)(x), (f 2g)(x)) = ϕ(g(f (x)), g(f (x))) = ϕ(f (x), f (x)) = ϕ(x, x) gilt. Da jede isometrische Abbildung f die Eigenschaft (c) aus Satz 10.5.2 besitzt, ist Ker f = {o} f¨ ur alle f ∈ IV . Nach Satz 10.1.13 existiert folglich zu jedem f ∈ IV die inverse Abbildung. Wegen ϕ(f (x), y) = ϕ(f (x), f (f −1 (y))) = ϕ(x, f −1 (y)) ist f −1 die zu f ∈ IV adjungierte Abbildung, womit f auch eine normale Abbildung ist. Hieraus ergibt sich dann f −1 ∈ IV f¨ ur alle f ∈ IV mit Hilfe von Satz 10.3.1. Also ist (IV ; 2) eie Gruppe. Daß auch (FV ; 2) eine Gruppe ist, beweist man analog ¨ (UA). Abschließend soll noch kurz erl¨ autert werden, wie man mit Hilfe von Gruppen aus linearen Abbildungen Aussagen u aume sortieren bzw. klassifizieren kann. ¨ ber Vektorr¨ Die Idee dazu wurde zun¨ achst f¨ ur Geometrien“ (Punktr¨ aume) von Felix Klein ” (1849-1925) im sogenannten Erlanger Programm 1872 entwickelt. Da wir hier nur affine Punktr¨ aume, die mit Hilfe von Vektorr¨ aumen definiert wurden, behandeln, und sich die meisten Aussagen u aume aus Aussagen u ¨ ber affine Punktr¨ ¨ ber Vektorr¨ aume ergeben, k¨ onnen wir hier schon einen Begriff einf¨ uhren, der in Kapitel 11 – wie viele andere Ergebnisse u aume ¨ ber lineare Abbildungen auch – auf Punktr¨ u ¨ bertragen wird und mit dem die Grundidee des Erlanger Programms beschreibbar ist. Definition Es sei K V ein VR und G := (G; 2) eine gewisse Gruppe aus linearen Abbildungen. Außerdem bezeichne A(U ) eine gewisse Aussage u ¨ ber die Vektoren einer Teilmenge U von V . Dann nennt man die Aussage A(U ) eine Invariante von G, wenn der Wahrheitsgehalt von A(U ) mit dem von A(f (U )) (f (U ) := {f (x) | x ∈ U }) f¨ ur jedes f ∈ G u ¨ bereinstimmt.
350
10 Lineare Abbildungen
Beispiel Sind auf dem VR V ein Skalarprodukt ϕ sowie mittels ϕ eine Norm .. definiert, so sind Aussagen der Form ϕ(x, y) = a oder x = b Invarianten der Gruppe IV . Seien G1 und G2 Gruppen aus linearen Abbildungen mit G1 ⊆ G2 . Faßt man dann s¨ amtliche zugeh¨ origen Invarianten zu Klassen Inv G1 , Inv G2 zusammen, so gilt Inv G2 ⊆Inv G1 . Speziell bedeutet dies, daß eine große Gruppe eine kleine Klasse von Invarianten besitzt und umgekehrt. Mit Hilfe von Gruppen aus linearen Abbildungen k¨ onnen folglich Aussagen u ¨ ber Vektoren zu Invariantenklassen zusammengefaßt werden, und die Inklusionen bei den Gruppen sagen etwas u ¨ ber den Zusammenhang zwischen den S¨ atzen aus den Invariantenklassen aus. Eine solche Sortierung ist nur dann sinnvoll, wenn man viele Aussagen hat und die Zusammenh¨ ange zwischen diesen Aussagen kl¨ aren m¨ ochte. Eine solche Situation bestand z.B. in der Mitte des 19. Jahrhunderts, wo eine Vielzahl von Arbeiten zu neuen Geometrien“ vorlag, jedoch ” ¨ der Uberblick u ange verloren zu gehen schien. ¨ ber die wechselseitigen Zusammenh¨ Das viele Material zu den Geometrien“ erhielt damals durch die gruppentheore” tische Denkweise eine klare, logisch durchsichtige Struktur.4 Einige Details dazu findet man im n¨ achsten Kapitel. Es sei noch bemerkt, daß die Idee, gewissen Objekten Invarianten zuzuordnen, bei der L¨ osung einer Reihe von Problemen die entscheidende L¨ osungsidee war. Beispiele dazu findet man im Band 2.
4
Inzwischen gibt es jedoch Geometrien (z.B. die Riemannsche Geometrie), die durch das Erlanger Programm nicht erfaßt werden.
11 Affine Abbildungen
In diesem kurzen Kapitel sollen Abbildungen zwischen affinen Punktr¨aumen studiert werden. Dabei interessieren uns nur solche Abbildungen, die Zusammenh¨ ange zwischen Aussagen u ¨ber Teilmengen von affinen Punktr¨aumen herstellen. Wir werden sehen, daß letztlich die zu den affinen Punktr¨aumen geh¨ orenden Vektorr¨ aume und die linearen Abbildungen zwischen diesen Vektorr¨ aumen die uns interessierenden Abbildungen bestimmen.
11.1 Allgemeines u ¨ber affine Abbildungen Der nachfolgend eingef¨ uhrte Begriff der affinen Abbildung f zwischen zwei affinen Punktr¨ aumen ist so gew¨ ahlt, daß das Bild f (g) einer Geraden g ein Punkt oder wieder eine Gerade ist und – wie wir sp¨ater noch sehen werden – die Eigenschaft der Parallelit¨ at von zwei Geraden sich durch Anwenden von f nicht ¨ andert sowie das sogenannte Teilverh¨altnis von Punkten auf einer Geraden beim Abbilden durch f erhalten bleibt. Der Richtungssinn einer Geraden, Streckenl¨ angen, Fl¨ acheninhalte und Winkel k¨onnen sich dagegen beim Anwenden von f i.allg. ¨ andern.1 Definition Seien R und R′ Punktr¨ aume mit den zugeh¨origen Vektorr¨aumorper K. en V und V ′ u ¨ ber dem gleichen K¨ Die Abbildung f : R → R′ heißt affine Abbildung von R in R′ , wenn es − → eine lineare Abbildung f : V → V ′ mit der Eigenschaft
bzw.
−−−−−−→ − → −−→ ∀P, Q ∈ R : f (P Q) = f (P )f (Q)
(11.1)
− → ∀P, Q ∈ R : f (Q − P ) = f (Q) − f (P )
(11.2)
gibt (siehe Abbildung 11.1). 1
Ohne Beweis sei hier noch erw¨ ahnt, daß affine Abbildungen Figuren verzerren, aber nicht zerreißen k¨ onnen.
352
11 Affine Abbildungen R′
R
rQ
P
-fr (Q) MB B B B − − − − − − −− -B − − − − − − − −→ − B f B B -Br r f
f
f (P )
Abb. 11.1
Beispiel
Seien ⎧⎛ 1 ⎪ ⎪ ⎪ ⎪ x ⎨⎜ ⎜ 1 R = R′ := ⎜ ⎜ x2 ⎪ ⎪ ⎝ ... ⎪ ⎪ ⎩ xn
⎫ ⎪ ⎪ ⎪ ⎪ ⎬
⎞
⎟ ⎟ ⎟ | ∀i : xi ∈ R , ⎟ ⎪ ⎪ ⎠ ⎪ ⎪ ⎭
und die Abbildung f durch
⎧⎛ ⎪ ⎪ ⎪ ⎪ ⎨⎜ ⎜ ′ V = V := ⎜ ⎜ ⎪ ⎪ ⎝ ⎪ ⎪ ⎩
0 x1 x2 ... xn
⎫ ⎪ ⎪ ⎪ ⎪ ⎬
⎞
⎟ ⎟ ⎟ | ∀i : xi ∈ R ⎟ ⎪ ⎪ ⎠ ⎪ ⎪ ⎭
f : R → R, X → A + A · X sowie
⎛⎛
1 ⎜ ⎜ x1 ⎜⎜ ⎜ f⎜ ⎜ ⎜ x2 ⎝ ⎝ ... xn
⎞⎞
⎛
1 ⎜ a1 ⎟⎟ ⎜ ⎟⎟ ⎟ ⎟ := ⎜ a2 ⎜ ⎟⎟ ⎝ ... ⎠⎠ an
=:A
⎞
⎛
0 0 0 ... 0 ⎟ ⎜ 0 a11 a12 ... a1n ⎟ ⎜ ⎟ + ⎜ 0 a21 a22 ... a2n ⎟ ⎜ ⎠ ⎝ .................. 0 an1 an2 ... ann =:A
(11.3) ⎞ ⎛
1 ⎟ ⎜ x1 ⎟ ⎜ ⎟ · ⎜ x2 ⎟ ⎜ ⎠ ⎝ ... xn
=:X
⎞ ⎟ ⎟ ⎟ ⎟ ⎠
definiert. Diese Abbildung ist affin, da die mit Hilfe von A definierbare Abbildung − → ∀x ∈ V : f (x) := A · x − → offenbar eine lineare Abbildung ist und sich (11.2) f¨ ur die obigen f und f wie folgt (unter Verwendung bekannter Rechenregeln f¨ ur Matrizen) leicht nachpr¨ ufen l¨ aßt:
11.1 Allgemeines u ¨ ber affine Abbildungen
353
− → − → − → f (Q − P ) = A · (Q − P ) = A · Q − A · P = f (P ) − f (Q). Mit unserem obigen Beispiel haben wir bereits die Struktur der affinen Abbildung i.w. erfaßt, wie der folgende Satz zeigt. Satz 11.1.1 Seien R und R′ affine Punktr¨aume mit den zugeh¨origen Vektorr¨aumen V und V ′ . Dann gilt: (a) Sei f : R → R′ eine affine Abbildung mit der zugeh¨origen linearen Abbil− → dung f : V → V ′ . Dann gilt: − → ∀P ∈ R ∀x ∈ V : f (P + x) = f (P ) + f (x).
(11.4)
− → ∀x ∈ V : f (T + x) := T ′ + f (x)
(11.5)
− → (b) Ist umgekehrt f : V → V ′ eine lineare Abbildung und T ∈ R sowie ′ ′ T ∈ R fest gew¨ahlt, definiert
eine affine Abbildung. Beweis. (a): Seien P ∈ R und x ∈ V beliebig gew¨ahlt. Wir setzen Q := P +x, − → d.h., es ist x = Q − P . Nach Definition von f gilt dann f (x) = f (Q) − f (P ) = f (P + x) − f (P ). Hieraus folgt dann unmittelbar (11.4). −→ (b): Seien P, Q ∈ R beliebig gew¨ ahlt. Dann gilt P = T + T P und Q = − → −→ −→ T + T Q. Aus der Voraussetzung (11.5) erh¨ alt man dann f (P ) = T ′ + f (T P ) − → −→ − → −→ − → −→ und f (Q) = T ′ + f (T Q). Folglich gilt f (Q) − f (P ) = f (T Q) − f (T P ) = − → −→ −→ − → f (T Q) − T P ) = f (Q − P ), womit die durch (11.5) definierte Abbildung affin ist. Satz 11.1.2 Seien R und R′ affine R¨aume mit den zugeh¨origen Vektorr¨aumen V und V ′ ¨ uber dem K¨orper K. Ferner sei f : R −→ R′ eine affine Abbildung. Dann gilt: (a) Ist A ein affiner Unterraum von R, so ist f (A) := {f (x) | x ∈ A} ein affiner Unterraum von R′ mit dimf (A) ≤ dimA. (b) Sind A und B parallele affine Unterr¨aume, so sind f (A) und f (B) ebenfalls parallel. Beweis. (a): Ein affiner Unterraum l¨ aßt sich in der Form A = P + U darstellen, wobei P ∈ A und U ein gewisser UVR von V ist. Mit Hilfe von Satz − → − → 11.1.1 folgt hieraus f (A) = f (P ) + f (U ). Wegen der Linearit¨at von f , Satz 10.1.1 und Satz 10.1.2 gilt damit (a). (b): Seien A = P + U und B = Q + W mit P ∈ A, Q ∈ B und U , W passend gew¨ ahlten UVRen von V . Nach Definition sind A und B parallel, wenn − → − → U ⊆ W oder W ⊆ U . Sei o.B.d.A. U ⊆ W . Dann gilt f (U ) ⊆ f (W ), was nach Definition die Parallelit¨ at von f (A) und f (B) zur Folge hat.
354
11 Affine Abbildungen
11.2 Gruppen gewisser affiner Abbildungen Zur Vorbereitung: Lemma 11.2.1 Seien f : R → R′ und g : R′ → R′′ affine Abbildungen. Dann gilt: −→ → − − (a) f 2g ist eine affine Abbildung mit f 2g= f 2→ g. → − (b) f ist injektiv ⇐⇒ f ist injektiv. → − (c) f ist surjektiv ⇐⇒ f ist surjektiv. → − (d) f ist bijektiv ⇐⇒ f ist bijektiv. → → − (e) f ist bijektiv =⇒ f −1 ist eine affine Abbildung mit f −1 = ( f )−1 . → − − Beweis. (a): Da f und → g lineare Abbildungen sind, ist nach Abschnitt 10.1 (Bei→ − → spiel 5) auch f 2− g eine lineare Abbildung. (a) folgt damit aus ∀P, Q ∈ R : → − − → − − − ( f 2→ g )(Q − P ) = → g ( f (Q − P )) = → g (f (Q) − f (P )) = g(f (Q) − g(f (P )) = (f 2g)(Q) − (f 2g)(P ). ¨ (b)–(e) u ¨ berlege man sich als UA. Satz 11.2.2 Sei Rn ein affiner Punktraum mit dem zugeh¨ origen Vektorraum Vn uber dem K¨ orper K. Dann gilt: ¨ (a) Sei G ⊆ EVn 2 eine Untergruppe der Gruppe EVn . Dann ist auch Ga := (Ga ; 2) mit → − Ga := {f | f : Rn → Rn ∧ f ist affin ∧ f ∈ G} ebenfalls eine Gruppe. → (b) Ist A := ({f | f : Rn → Rn ∧ f affin}; 2) eine Gruppe, so ist (A; 2) mit → → − A := { f | f ∈ A} ebenfalls eine Gruppe. Beweis. (a): Wegen Lemma 11.2.1, (a) ist 2 eine innere Verkn¨ upfung von Ga , die nach Satz 1.4.1 assoziativ ist. Nach Voraussetzung geh¨ ort die identische Abbildung ort, die wiederum das idV zu G, womit die identische Abbildung idRn zu Ga geh¨ Einselement von Ga ist. Mit Hilfe von Lemma 11.2.1, (e) zeigt man leicht, daß zu jeder affinen Abbildung f ∈ Ga die inverse Abbildung in Ga existiert. Folglich ist Ga eine Gruppe. ¨ (b): UA. Satz 11.2.3 (mit Definitionen) Seien Rn ein affiner Punktraum mit dem zugeh¨ origen Vektorraum Vn u orper K ∈ {R, C} und ¨ber dem K¨ → − → − → − G1 := ({ f | f : Vn → Vn ∧ f bijektive Abbildung}; 2), → − → − − − − G2 := ({ f ∈ G1 | ∃→ g : Vn → Vn ∃λ ∈ K\{0} : → g isometrisch ∧ f = λ · → g }; 2), → − → − G3 := ({ f ∈ G1 | f isometrisch}; 2). Dann sind folgende algebraische Strukturen Ai := (Ai ; 2), i ∈ {1, 2, 3}, mit 2
Siehe Abschnitt 10.7.
11.3 Einige Invarianten affiner Abbildungen
355
→ − aten des Rn ,3 (a) A1 := {f | f : Rn → Rn ∧ f ∈ G1 }, die Menge der Affinit¨ → − ¨ (b) A2 := {f ∈ A1 | f ∈ G2 }, die Menge der Ahnlichkeitsabbildungen des Rn , → − (c) A3 := {f ∈ A1 | f ∈ G3 }, die Menge der Kongruenzen (bzw. Bewegungen) des Rn , Gruppen. Beweis. (a) und (c) folgen aus Satz 11.2.2 und Satz 10.7.2. ¨ (b) pr¨ uft man mit Hilfe von (a) leicht nach (UA). Satz 11.2.4 Es sei f : Rn → Rn eine affine Abbildung und auf dem zugeh¨ origen Vektorraum Vn von Rn sei eine Norm .. definiert. Dann gilt: f ∈ A3 ⇐⇒ ∀P, Q ∈ Rn : f (Q) − f (P ) = Q − P ,
(11.6)
d.h., die Abbildung f ist genau dann eine Kongruenz, wenn sie beim Abbilden den Abstand zweier beliebiger Punkte nicht ¨ andert. → − Beweis. =⇒“: Sei f ∈ A3 , d.h., es existiert eine isometrische Abbildung f mit ” → − f (X + x) = f (X) + f (x) f¨ ur beliebige X ∈ Rn und x ∈ Vn . F¨ ur beliebige P, Q ∈ Rn mit y := Q − P gilt dann → − f (Q) − f (P ) = f (P + y) − f (P ) = f (P ) + f (y) − f (P ) = f (y).
→ − Unter Verwendung von Satz 10.5.2 folgt hieraus f (Q) − f (P ) = f (y) = y. ⇐=“: Angenommen, f¨ ur alle P, Q ∈ Rn gilt f (Q) − f (P ) = Q − P . Wegen ” → − → − f (Q) − f (P ) = f (P − Q) folgt hieraus f (x) = x f¨ ur alle x ∈ Vn . Nach Satz → − → − 10.5.2 ist damit f orthogonal oder unit¨ ar und damit f isometrisch. Analog kann man den folgenden Satz beweisen. Satz 11.2.5 (mit Definition) Sei f : Rn → Rn eine affine Abbildung und auf dem zugeh¨ origen Vektorraum Vn von Rn sei eine Norm .. definiert. Dann gilt: f ∈ A2 ⇐⇒ ∃c > 0 : ∀P, Q ∈ Rn : f (Q) − f (P ) = c · Q − P .
(11.7)
¨ Das c aus (11.7) nennt man Ahnlichkeitsfaktor.
11.3 Einige Invarianten affiner Abbildungen Analog zu Kapitel 10 lassen sich Invarianten affiner Abbildungen definieren. Definition Es sei Rn ein affiner Punktraum und G eine gewisse Gruppe von auf Rn definierten affinen Abbildungen. Außerdem bezeichne A(T ) eine gewisse Aussage u ¨ ber T ⊆ Rn . Dann nennt man die Aussage A(T ) eine Invariante von G, wenn der Wahrheitsgehalt von A(T ) mit dem von A(f (T )) (f (T ) := {f (X) | X ∈ T }) f¨ ur jedes f ∈ G u ¨bereinstimmt. Aus der obigen Definition ergibt sich unmittelbar die folgende Eigenschaft von Invarianten: 3
A1 ist auch f¨ ur einen beliebigen K¨ orper K eine Gruppe.
356
11 Affine Abbildungen
Lemma 11.3.1 Es sei U eine Untergruppe der Gruppe G, die aus affinen Abbildungen eines Rn auf sich besteht. Dann ist jede Invariante von G auch eine von U. Beispiele f¨ ur Invarianten gibt der folgende Satz an. Satz 11.3.2 (mit Definition) Es sei Rn ein affiner Punktraum mit dem zugeh¨ oriuber dem K¨ orper K = R. Außerdem seien Ai f¨ ur i = 1, 2, 3 die gen Vektorraum Vn ¨ im Satz 11.2.3 definierten Gruppen aus affinen Abbildungen des Rn auf sich. Dann gilt: (a) Aussagen ¨ uber die Parallelit¨ at von Punktr¨ aumen sind Invarianten der Gruppe A1 . (b) Aussagen u ¨ber Winkel zwischen Punktmengen sind Invarianten von A2 .4 (c) Aussagen ¨ uber die Abst¨ ande von Punkten sind Invarianten von A3 . (d) Seien P0 , P1 , R Punkte des Rn mit den Eigenschaften: P0 = P1 und R liegt auf −−→ der Geraden durch P0 und P1 . Die dann existierende Zahl r ∈ R mit P0 R = −−−→ r · P0 P1 heißt Teilverh¨ altnis des Tripels (P0 , P1 , R) und ist eine Invariante von A1 . Beweis. (a) folgt aus Satz 11.1.2 und (c) aus Satz 11.2.4. −−→ −−→ (b): Seien P, P1 , P2 ∈ Rn , a := P P1 und b := P P2 . Dann berechnet sich der Winkel ∠(a, b) durch ϕ(a, b) cos ∠(a, b) = a · b → − ¨ aßt sich f (Siehe 6.4 und 7.2). Ist nun f eine Ahnlichkeitsabbildung auf Rn , so l¨ n×n und mit Hilfe einer Basis B von Vn , einer gewissen orthogonalen Matrix A ∈ R eines λ ∈ R\{0} wie folgt beschreiben: → − ∀x ∈ Vn : f (x)/B = λ · A · (x/B ). Mit Hilfe dieser Darstellung rechnet man leicht nach, daß → − → − cos ∠( f (a), f (b)) = cos ∠(a, b) gilt. ¨ (d): UA. Ausgehend von Satz 11.3.2 findet man nun eine Reihe von S¨ atzen (wie z.B. den aus der Schule her bekannten Strahlensatz), die weitere Invarianten der von uns definierten Gruppen sind. Das Zusammenfassen s¨ amtlicher Invarianten einer Gruppe liefert die zur Gruppe geh¨ orende Geometrie“: ” Die Invarianten von A1 bilden die sogenannte affine Geometrie, die von A2 die ¨ Ahnlichkeitsgeometrie und die von A3 die euklidische Geometrie (Kongruenzgeometrie). ¨ Mit Hilfe von Lemma 11.3.1 sieht man, daß sich die Inklusionen beim Ubergang von den Gruppen zu den zugeh¨ origen Geometrien (oder von den Geometrien zu den Gruppen, die aus all den affinen Abbildungen bestehen, die s¨ amtlichen Aussagen der Geometrien als Invarianten haben) umkehren. In der Allgemeinen Algebra 4
Zur Definition der Winkel zwischen Punktmengen siehe die Abschnitte 7.2 und 6.4.
11.3 Einige Invarianten affiner Abbildungen
357
nennt man einen solchen Zusammenhang eine Galois-Beziehung, die nicht nur bei Geometrien und ihren Invarianten, sondern auch in anderen Teilen der Mathematik auftritt. Mehr dazu im Band 2. Die Idee zu obigen Klassifizierungen von Geometrien stammt aus dem sogenannten ¨ Erlanger Programm von Felix Klein. Eine Ubersicht u ¨ ber die durch dieses Programm bewirkte Entwicklung der klassischen Invariantentheorie findet man z.B. in [Olv 99].
Teil III
Numerische Algebra
12 Einfu ¨hrung in die Numerische Mathematik
Unter Numerischer Mathematik bzw. unter Numerik versteht man diejenigen Teile der Mathematik, in denen mathematische Gr¨oßen aus gegebenen Zahlen auch zahlenm¨ aßig berechnet werden. Insbesondere besch¨aftigt sich die Numerik mit dem Aufstellen von Rechenvorschriften, nach denen aus Eingangsdaten, die oft mit (bekannten) Fehlern behaftet sind, die gew¨ unschten Ausgangsdaten mit absch¨ atzbarer Genauigkeit berechnet werden. Die Numerik setzt in der Regel dort ein, wo ein Problem (z.B. der Algebra oder Analysis) als gel¨ ost angesehen werden kann, weil z.B. die Existenz einer L¨ osung nachgewiesen oder ein L¨ osungsalgorithmus (m¨oglicherweise aus unendlich vielen Schritten bestehend) gefunden wurde. Bei der konkreten Ermittlung der L¨ osung eines Problems ergeben sich dann aber eine Reihe von Schwierigkeiten. Oft sind die Ausgangsdaten reelle Zahlen, die man durch endliche Dual- oder Dezimalbr¨ uche ann¨ ahern muß, oder gewisse Meßdaten, von denen man in etwa weiß, mit welchen Fehlern sie behaftet sind. Da man nicht unendlich lange rechnen kann, muß man sich bei L¨osungsalgorithmen mit unendlich vielen Schritten nat¨ urlich mit einer endlichen Schrittzahl begn¨ ugen. Besteht der L¨ osungsalgorithmus nur aus endlich vielen Schritten, so kann es passieren, daß dieser Algorithmus numerisch instabil ist, d.h., durch die fehlerhaften Eingangsdaten k¨ onnen Ergebnisse entstehen, die – selbst wenn die Fehler der Eingangsdaten sehr klein sind – stark von den wahren L¨osungen abweichen. Die Numeriker suchen in solch einem Fall nach neuen L¨osungsalgorithmen, die diese unangenehme Eigenschaft nicht besitzen. Man sieht also, daß man bei konkreten Berechnungen in der Regel st¨andig gezwungen ist, Fehler zu machen. Da diese Fehler aber meist unvermeidbar sind, besteht die Aufgabe der Numerik darin, die Fehler in berechenbare Schranken zu halten. In den folgenden drei Kapiteln soll eine kurze Einf¨ uhrung in die Numerik gegeben werden, wobei wir uns auf diejenigen Teile beschr¨anken, die sich mit dem n¨ aherungsweisen L¨ osen von gewissen Gleichungen besch¨aftigen. Grundlage fast aller angegebenen Verfahren ist dabei der sogenannte Banach¨ sche Fixpunktsatz. Insbesondere setzen wir dann unsere Uberlegungen zu den
362
12 Einf¨ uhrung in die Numerische Mathematik
Gleichungssystemen aus Teil II fort, indem wir uns N¨aherungsverfahren f¨ ur LGS u ¨ berlegen werden. In diesem Kapitel sollen anschließend noch m¨ oglichen Fehlertypen angegeben, in einfachen F¨ allen die Fehlerfortpflanzung analysiert und gezeigt werden, wie man mit Hilfe der Intervallarithmetik die Fehler w¨ahrend einer numerischen Rechnung (meist recht grob) unter Kontrolle halten kann.
12.1 Fehlertypen Bei Fehlern in der Numerik meint man nicht logische Fehler, Rechenfehler u.¨a., sondern die Unterschiede zwischen N¨ aherungswerten und exakten Werten. Falls der exakte Wert und der N¨ aherungswert Zahlen sind, definieren wir Absoluter Fehler := |N¨ aherungswert − exakter Wert| und Relativer Fehler :=
absoluter Fehler |exakter Wert|
bzw. (falls der exakte Wert nicht bekannt ist und wir Absch¨atzungen f¨ ur den Fehler vornehmen m¨ ussen) Relativer Fehler :=
absoluter Fehler . |N¨ aherungswert|
Etwas allgemeiner (und auf die nachfolgenden Abschnitte zugeschnitten) lassen sich diese Begriffe wie folgt einf¨ uhren. Definitionen Seien x und x 7 Elemente eines Vektorraums V, auf dem eine Norm ".." definiert ist, und sei ∆x := x 7 − x. Dann heißt "∆x" = "7 x − x" der absolute Fehler zwischen N¨ aherungswert x 7 und exaktem Wert x. Falls x = 0 und x bekannt bzw. x 7 = 0 und x unbekannt ist, versteht man unter dem relativen Fehler den Ausdruck "∆x" "∆x" bzw. . "x" "7 x"
Auftreten k¨ onnen Fehler bei der mathematischen Behandlung eines Problems als •
•
Modellfehler, Fehler bei den Ausgangsdaten (Z.B. wird bei der Herleitung einer Differentialgleichung, die den freien Fall charakterisiert, nicht der Luftwiderstand ber¨ ucksichtigt; irrationale Zahlen (wie etwa π oder e) sind nur n¨ aherungsweise angebbar.); Fehler durch Rechnen mit Maschinenzahlen, Rundungsfehler (siehe dazu Abschnitt 12.3);
12.2 Fehlerfortpflanzung bei differenzierbaren Funktionen
•
363
Verfahrensfehler (Z.B. durch Ersetzen eines Grenzwertprozesses durch einen finiten Prozeß).
Oft treten bei der mathematischen Behandlung gewisser Probleme alle drei Fehlertypen auf. Ihre Gesamtanalyse ist dabei meist recht aufwendig, manchmal auch unm¨ oglich. Die nachfolgenden Abschnitte 12.2–12.4 geben deshalb nur einige (sehr allgemeine) Methoden der Fehleranalyse bei gewissen Schritten der Abarbeitung von Algorithmen an. Sp¨ater (bei der Behandlung konkreter numerischer Verfahren) werden wir dann Fehleranalysen konkreter Algorithmen vornehmen.
12.2 Fehlerfortpflanzung bei differenzierbaren Funktionen Wir beginnen mit Absch¨ atzungen f¨ ur die absoluten Fehler beim Rechnen mit den elementaren Rechenoperationen +, -, · und :. Es sei dazu f¨ ur ◦ ∈ {+, −, ·, :} und x, y, x 7, y7 ∈ R : und
∆x := x 7 − x , ∆y := y7 − y
∆(x ◦ y) := (x + ∆x) ◦ (y + ∆y) − (x ◦ y). Dann folgt offensichtlich im Fall ◦ = + aus ∆(x + y) := (x + ∆x) + (y + ∆y) − (x + y) = ∆x + ∆y, daß |∆(x + y)| ≤ |∆x| + |∆y| ist. ¨ Ahnlich leicht u ¨ berlegt man sich die folgenden Absch¨atzungen bzw. N¨aherungen f¨ ur den absoluten Fehler bei Anwendung der anderen Grundrechenarten.
|∆(x + y)| ≤ |∆x| + |∆y| |∆(x − y)| ≤ |∆x| + |∆y| |∆(x · y)| ≈ |y| · |∆x| + |x| · |∆y| |∆(x : y)| ≈
1 |x| · |∆x| + 2 · |∆y| |y| |y |
Bei den Absch¨ atzungen f¨ ur die relativen Fehler benutzen wir das sogenannte Landausche O-Symbol1 , das wie folgt definiert ist: Seien f1 und f2 einstellige Funktionen von R in R. f1 heißt dann f¨ ur x → 0 von der Gr¨ oßenordnung f2 mit der Bezeichnung 1
Edmund Landau (1877–1938), deutscher Mathematiker. Sein Arbeitsfeld war vor allem die analytische und algebraische Zahlentheorie. Besonders Landaus sieben B¨ ucher haben eine große Wirkung gehabt.
364
12 Einf¨ uhrung in die Numerische Mathematik
f1 (x) = O(f2 (x)), wenn eine positive Konstante c existiert, so daß in einer Umgebung von x = 0 die Ungleichung |f1 (x)| ≤ c · |f2 (x)| erf¨ ullt ist. ¨ Es gilt dann (Beweis: UA): ∆(x + y) |∆x| + |∆y| x+y ≤ |x + y| ∆(x − y) |∆x| + |∆y| x−y ≤ |x − y| ∆(x · y) ∆x ∆y 2 x · y ≤ x + y + O( |∆x| + |∆y| ) ∆(x : y) ∆x ∆y 2 ≤ + x : y x y + O( |∆x| + |∆y| )
Noch einige Bemerkungen zu obigen Absch¨atzungen der absoluten und relativen Fehler: Aus der Ungleichung f¨ ur die Subtraktion ist ablesbar, daß bei Subtraktion fast gleicher Zahlen der relative Fehler sehr groß ist. ( Ausl¨oschung g¨ ultiger ” Ziffern“). Gleiches gilt f¨ ur den absoluten Fehler bei der Division durch (betragsm¨aßig) kleine Zahlen. Ein kleiner Divisor liefert i.allg. einen großen absoluten Fehler. Die O-Terme in den Ungleichungen haben in der Regel keinen Einfluß auf die Fehlerschranken und k¨ onnen deshalb meist weggelassen werden. (Sind z.B. ∆x und ∆y von der Gr¨ oßenordnung 10−6 , so sind die O-Terme von der Gr¨oßenordnung 10−12 .) 7, x 81 , 8 x2 , . . . , x 8n ihre Seien nun x, x1 , x2 , . . . , xn gewisse reelle Zahlen und x N¨ aherungen. Wie l¨ aßt sich dann bei gegebener (ein- bzw. mehrstelliger) Funk82 , . . . , x 8n ) absch¨atzen? tion f die Genauigkeit von f (7 x) bzw. f (8 x1 , x Ist f einstellig und eine stetig diferenzierbare Funktion, so erh¨alt man als direkte Folgerung aus dem Mittelwertsatz der Differentialrechnung bzw. als ur ein gewisses ϑ ∈ (0, 1) ⊂ R die folFolgerung aus dem Satz von Taylor2 f¨ gende Gleichung: f (7 x) = f (x + ∆x) = f (x) + f ′ (x + ϑ · ∆x) · ∆x, aus der sich die folgende Absch¨ atzung ergibt: 2
Siehe dazu ein beliebiges Buch u ¨ ber Analysis oder Differential- und Integralrechnung, das f¨ ur Studenten an Universit¨ aten oder Fachhochschulen geschrieben wurde.
12.2 Fehlerfortpflanzung bei differenzierbaren Funktionen
365
|∆f (x)| := |f (7 x) − f (x)| ≤ M · |∆x|, wobei |f ′ (x + ϑ · ∆x)| ≤ M. √ Beispiele Seien f (x) := x3 + 2x, x := 2 und x 7 := 1.41. Es gilt dann: ′ 2 |7 x − x| ≤ 0.01, f (x) = 3x + 2 und die Werte von f ′ in der Umgebung von √ x := 2 lassen sich (sehr grob) betragsm¨ aßig mit M := 9 absch¨atzen. Damit erhalten wir √ als Absch¨ atzung f¨ ur den Fehler bei der Bildung von f (1.41) anstelle von f ( 2): |f (7 x) − f (x)| ≤ 9 · 0.01 = 0.09. Verallgemeinern l¨ aßt sich die oben angegebene Absch¨atzung f¨ ur differenzierbare Funktionen einer Ver¨ anderlichen mit Hilfe des Satzes von Taylor f¨ ur Funktionen mehrerer Ver¨ anderlicher. F¨ ur eine n-stellige Funktion f (x1 , . . . , xn ), deren partielle Ableitungen fxi (i = 1, 2, . . . , n) existieren und stetig sind, gilt f¨ ur ein gewises ϑ ∈ (0, 1): f (8 x1 , 8 x2 , . . . , x 8n ) n = f (x1 , x2 , . . . , xn ) + i=1 fxi (x1 + ϑ · ∆x1 , . . . , xn + ϑ · ∆xn ) · ∆xi .
Hieraus ergibt sich dann:
|∆f (x1 , . . . , xn )| := |f (8 x1 , . . . , x 8n ) − f (x1 , . . . , xn )| ≤
n i=1
Mi · |∆xi |,
wobei |fxi (x1 + ϑ · ∆x1 , . . . , xn + ϑ · ∆xn )| ≤ Mi (i = 1, 2, . . . , n). Mit Hilfe des Satzes von Taylor f¨ ur Funktionen zweier Ver¨anderlicher lassen sich u ur die elementa¨ brigens unsere eingangs angegebenen Absch¨atzungen f¨ ren Rechenoperationen ebenfalls leicht begr¨ unden. Ist z.B. f (x, y) := x · y, so haben wir fx (x, y) = y und fy (x, y) = x, womit ∆f (x, y) = ∆(x · y) = (y + ϑ · ∆y) · ∆x + (x + ϑ · ∆x) · ∆y und damit |∆(x · y)| ≈ |y| · |∆x| + |x| · |∆y| gilt. Es sei noch bemerkt, daß die Resultate bei der Berechnung von Funktionswerten in der Regel nicht nur durch Fehler bei den Argumenten, sondern zumeist auch noch durch gen¨ aherte Funktionswertberechnung verf¨alscht werden. M¨ oglichen Methoden der Fehleranalyse f¨ ur solche F¨alle entnehme man [Mae 84].
366
12 Einf¨ uhrung in die Numerische Mathematik
12.3 Maschinenzahlen, Rundungsfehler Maschinenzahlen sind die mit einer bestimmten Codierung darstellbaren Zahlen in einem Computer. Wir wollen hier nur einen Typ von Maschinenzahlen behandeln. F¨ ur p ∈ N\{1} ( Basis“ ) und l, m ∈ N sei ” M(p, l, m) die Menge aller x ∈ R mit x = 0 oder es existieren gewisse α, β ∈ {+, −}, di , ei ∈ {0, 1, 2, . . . , p − 1} mit m−1
x = α(d1 · p−1 + d2 · p−2 + . . . + dl · p−l ) · pβ(e1 ·p
+e2 ·pm−2 +...+em ·p0 )
und d1 = 0 (zwecks eindeutiger Darstellung der Zahlen = 0). Die Elemente x ∈ M(p, l, m)\{0} schreiben wir kurz in der sogenannten halblogarithmischen Darstellung α0.d1 d2 . . . dl (βe1 e2 . . . em ) oder (etwas verk¨ urzt) in der Form αd1 d2 . . . dl (βe1 e2 . . . em ) auf, wobei wir die Vorzeichen α oder β weglassen, falls sie gleich + sind. Den Ausdruck αd1 d2 . . . dl nennt man auch Mantisse von x und βe1 e2 . . . em wird Exponent von x genannt. Beispiel M(2, 2, 1) = {0} ∪ {α0.d1 d2 (βe) | α ∈ {+, −} ∧ {d1 , d2 , e} ⊆ {0, 1} ∧ d1 = 0}
= {−0.11(+1), −0.11(0), −0.11(−1), −0.10(+1), −0.10(0), −0.10(−1), 0,
„
=
j
0.10(−1), 0.10(0), 0.10(+1), 0.11(−1), 0.11(0), 0.11(+1)} ff« 3 1 3 1 1 3 1 3 3 3 . − , −1, − , − , − , − , 0, , , , , 1, 2 4 2 8 4 4 8 2 4 2
Beim Umgang mit Maschinenzahlen hat man folgende wesentliche Unterschiede zwischen M(p, l, m) und R zu beachten: •
M(p, l, m) ist endlich. Genauer: |M(p, l, m)| = 2 · (p − 1) · pl−1 · (2 · pm − 1) + 1.
12.3 Maschinenzahlen, Rundungsfehler
•
367
In M(p, l, m) gibt es eine eindeutig bestimmte gr¨oßte Zahl xmax (:= 0.hhh . . . h(+hhh . . . h) mit h := p − 1) und eine eindeutig bestimmte positive kleinste Zahl xmin (:= 0.100 . . . 0(−hhh . . . h) mit h := p − 1).
•
•
•
Die Zahlen von M(p, l, m) liegen nicht gleichabst¨andig auf der Zahlengeraden verteilt. Ihre Abst¨ ande nehmen mit wachsendem Exponenten zu. Jedoch ist grob betrachtet der relative Abstand xi+1xi−xi zweier benachbarter Maschinenzahlen xi+1 und xi ( = 0) u ¨ berall ungef¨ahr derselbe, so daß unabh¨ angig von der Gr¨ oßenordnung etwa die gleiche relative Genauigkeit bei der Approximation einer beliebigen Zahl durch eine Maschinenzahl m¨ oglich ist. Durch die Forderung d1 = 0 in der obigen halblogarithmischen Darstellung von x ∈ M(p, l, m) befindet sich in der Umgebung des Nullpunktes ein Loch“, d.h., in den Intervallen [0, xmin ] und [−xmin , 0] sind nur die ” Randpunkte aus M(p, l, m). Benutzt man anstelle von Elementen aus R Maschinenzahlen (eines Computers), so k¨ onnen erste Fehler schon beim Einlesen der Zahlen entstehen. Wir wollen hier dieses Einlesen“ nur durch zwei m¨ogliche Einleseabbil” dungen γ 9 ( Abschneiden“, Abbruch“) und 7 γ ( Runden“) f¨ ur den Fall ” ” ” p = 10
beschreiben und dann anschließend einige Fehlerabsch¨atzungen vornehmen. Zwecks genauer Definition von γ 9 und γ 7 unterteilen wir R in die Intervalle R∞ := (−∞, −xmax ) ∪ (xmax , +∞), Rmin := (−xmin , xmin )
und RM := R\(R∞ ∪ Rmin ). Die Einleseabbildung γ 9 l¨ aßt sich dann f¨ ur zeichen sign(x) wie folgt definieren: ⎧ α0.d1 d2 ...dl (βe1 e2 ...em ), falls ⎪ ⎪ ⎨ γ 9(x) := 0, falls ⎪ ⎪ ⎩ falls sign(x)xmax ,
eine reelle Zahl x mit dem Vorα0.d1 d2 ...dl dl+1 ...(βe1 e2 ...em ) ∈ RM , x ∈ Rmin , x ∈ R∞ .
γ (x) ist also die zu x in Richtung des Nullpunktes n¨achstgelegene Maschi9 nenzahl. Die Einleseabbilung 7 γ liefert dagegen die folgenden Maschinenzahlen:
368
12 Einf¨ uhrung in die Numerische Mathematik
⎧ aßig gr¨ oßte, am n¨ achsten an x ⎨ die betragsm¨ γ 7(x) := gelegene Maschinenzahl aus M(p, l, m), falls x ∈ RM , ⎩ γ 9(x) sonst.
Falls x ∈ RM und
x = α0.d1 d2 . . . dl dl+1 dd+2 . . . (βe1 e2 . . . em ), =: a =: k
d.h., x = a · pk , gelten die folgenden Fehlerabsch¨atzungen: −l k p ·p f¨ ur γ = γ 9, |γ(x) − x| ≤ 1 −l k · p · p f¨ u r γ = γ 7 2
f¨ ur den absoluten Fehler und
|γ(x) − x| ≤ |x|
p−l+1 f¨ ur γ = γ 9, 1 −l+1 · p f¨ u r γ = γ 7 2
f¨ ur den relativen Fehler, da a · p > 1 und damit
|γ(x) − x| |γ(x) − x| |γ(x) − x| = ≤ k k−1 |a · p | |(a · p) · p | |pk−1 | gilt. Eine Maschinenzahlmenge M(p, l, m), zu der die Einleseabbildung γ ∈ {9 γ, 7 γ } geh¨ ort, bezeichnen wir mit (M(p, l, m); γ).
•
Definiert man f¨ ur (M(p, l, m); γ) als Operationen x
N
y := γ(x × y),
wobei × ∈ {+, ·}, so gelten f¨ ur diese gen¨ aherten rationalen Operationen i.allg. das Assoziativ- und das Distributivgesetz nicht mehr, wie man sich ¨ A.12.3). Mit Hilfe anhand von Beispielen leicht u ¨berlegen kann (siehe UA eines Computers ist also nur eine sogenannte Pseudoarithmetik m¨oglich.
12.4 Intervallarithmetik Es ist naheliegend zu versuchen, dem Computer selbst die Buchhaltung u ¨ ber den durch Fehlerfortpflanzung entstehenden Genauigkeitsverlust zu u ¨ bertragen. Anstelle von N¨ aherungswerten, die mit Fehlern behaftet sind, verwendet man Intervalle, in denen die exakten Werte liegen. Z.B. rechnet man anstelle der durch Runden bzw. Abbruch entstandenen Zahl x 7 = 0.947 mit dem Intervall
12.4 Intervallarithmetik
369
I := [0.9465, 0.9475] bzw. I := [0.9470, 0.9480], in denen der exakte Wert liegt. Nachfolgend soll kurz das Rechnen mit solchen Intervallen erkl¨art werden. Zun¨ achst kann man nat¨ urlich leicht f¨ ur beliebige Intervalle [a, b], [c, d] ⊂ R und ◦ ∈ {+, −, ·, :} festlegen: [a, b] ◦ [c, d] := {x ◦ y | x ∈ [a, b] ∧ y ∈ [c, d]}. Da sich aus a≤x≤b, c≤y≤d bzw. a ≤ x ≤ b , −d ≤ y ≤ −c die Ungleichungen a+c≤x+y ≤b+d bzw. a−d ≤x−y ≤b−c ergeben, gilt [a, b] + [c, d] = [a + c, b + d] [a, b] − [c, d] = [a − d, b − c] Bei der Multiplikation und Division h¨ angen die Intervallgrenzen der Ergebnisintervalle von den Vorzeichen von a, b, c, d ab. Man erh¨alt:3 [a, b] · [c, d] = [min{ac, ad, bc, bd}, max{ac, ad, bc, bd}] : ; a a b b a a b b , , , , , , [a, b] : [c, d] = min , max c d c d c d c d Die Intervallarithmetik umfaßt die Arithmetik der reellen Zahlen, denn man kann wegen [a, a] = {a} setzen: a = [a, a] . 3
Die nachfolgend benutze Abbildung min : P(R) −→ R l¨ aßt sich unter Verwendung der auf R u ¨ blicherweise definierten Ordnung ≤ wie folgt definieren: min A = α :⇐⇒ ((∀x ∈ A : α ≤ x) ∧ (∀u ∈ R(∀x ∈ A : u ≤ x =⇒ u ≤ α))). Analog definiert man max.
370
12 Einf¨ uhrung in die Numerische Mathematik
Die Intervallrechnung kann auch auf Funktionen einer oder mehrerer Ver¨anderlicher ausgedehnt werden. Falls x ∈ [a, b] und f eine u arte einstellige Funktion ist, so ¨ ber [a, b] ⊂ R erkl¨ sei f ([a, b]) := {f (t) | t ∈ [a, b]} der Ersatz von f (x) bei der Intervallrechnung. Verallgemeinern l¨ aßt sich diese Definition zu der folgenden: ur xi ∈ [ai , bi ] Seien xi ∈ [ai , bi ] (i = 1, 2, . . . , n) und f (x1 , x2 , . . . , xn ) eine f¨ erkl¨ arte n−stellige Funktion. Dann sei f ([a1 , b1 ], [a2 , b2 ], . . . , [an , bn ]) := {f (t1 , t2 , . . . , tn ) | ∀i : ti ∈ [ai , bi ]}. Ist speziell f im betrachteten Intervall stetig, so gilt4 f ([a, b]) := [ min f (t), max f (t)] t∈[a,b]
:
t∈[a,b]
f ([a1 , b1 ], [a2 , b2 ], . . . , [an , bn ]) :=
; min f (t1 , t2 , . . . , tn ), max f (t1 , t2 , . . . , tn )
ti ∈[ai ,bi ]
ti ∈[ai ,bi ]
Bei der Intervallrechnung hat man einiges zu beachten: Muß gerundet werden, so ist stets bei den unteren Intervallgrenzen abzurunden und bei den oberen Intervallgrenzen aufzurunden, damit das exakte Ergebnis mit Sicherheit innerhalb des Ergebnisintervalls liegt. W¨ ahrend Kommutativ- und Assoziativgesetze f¨ ur die Intervalladdition und die Intervallmultiplikation g¨ ultig bleiben, gilt das Distributivgesetz nur in der abgeschw¨ achten Form: [a, b] · ([c, d] + [e, f ]) ⊆ [a, b] · [c, d] + [a, b] · [e, f ] ¨ A.12.6). (Beweis: UA ¨ Weitere Uberlegungen sowie Literaturhinweise zur Intervallarithmetik findet man z.B. in [Mae 84]. Abschließend eine kurze Zusammenfassung der Vorgehensweise bei der Intervallrechnung: (a) Ersetzen der fehlerhaften Eingangsgr¨ oßen xi durch Intervalle [ai , bi ] mit xi ∈ [ai , bi ]. 4
Wir verwenden die Schreibweise min f (t)
t∈[a,b]
anstelle von min{f (t) | t ∈ [a, b]}. Entsprechendes sei f¨ ur max definiert.
12.4 Intervallarithmetik
371
(b) Durchf¨ uhren der Rechnung mit den Intervallen [ai , bi ] anstelle der xi gem¨ aß obiger Regeln. Man erh¨ alt ein Ergebnisintervall [a, b]. (c) Berechnung eines N¨ aherungswertes y7 f¨ ur das gesuchte Ergebnis y und einer Fehlerschranke f¨ ur ∆y. Z.B. kann dies f¨ ur y ∈ [a, b] nach der Vorschrift 1 y7 := · (a + b) 2 und 1 |∆y| = |7 y − y| ≤ · (b − a) 2 erfolgen.
13 Gleichungsaufl¨ osung
13.1 Problemstellung, geometrische Deutung In diesem Kapitel wollen wir uns mit der L¨ osung des folgenden Problems befassen: Gegeben: Vektorraum V u orper K, A ⊆ V , ¨ber dem K¨ Abbildung f : A → A Gesucht: x∗ ∈ A mit f (x∗ ) = x∗ (x∗ heißt Fixpunkt der Abbildung f .) Die Gleichung f (x) = x kann auch in der Form g(x) := f (x) + (−x) = 0 aufgeschrieben werden, wobei 0 das Nullelement des Vektorraums und −x das zu x inverse Element bez. + bezeichnet. Umgekehrt kann man eine Gleichung der Form g(x) = 0 durch Addition von x in die Form f (x) := g(x) + x = x u uhren. ¨ berf¨ Damit handelt es sich also bei dem obigen Problem letztlich um das Problem der Nullstellenberechnung bzw. der Aufl¨ osung von Gleichungen der Form g(x) = 0, wobei g eine Abbildung aus V in V ist. Wie wir weiter unten sehen ¨ werden, gestattet uns die Uberf¨ uhrung der Nullstellenberechnungs- in eine Fixpunktberechnungsaufgabe den Einsatz eines Iterationsverfahrens, das wir uns im n¨ achsten Abschnitt herleiten wollen. Vorher jedoch einige Beispiele g(x) := an xn + an−1 xn−1 + . . . + a1 x + a0 = 0 (V = R) f (x) := cos x + sin x + x2 = x (V = R) g(x) := A · x − b = o (x ∈ V := K n×1 , A ∈ K m×n , b ∈ K m×1 )
(13.1) (13.2) (13.3)
Bei der Gleichung (13.1) handelt es sich um eine Polynomgleichung, Gleichung (13.2) ist ein Beispiel f¨ ur eine sogenannte transzendente Gleichung und Gleichung (13.3) ist die Matrizenschreibweise eines linearen Gleichungssystems.
374
13 Gleichungsaufl¨ osung
Im Gegensatz zu den LGS, f¨ ur die wir uns bereits L¨osbarkeitskriterien und L¨osungsverfahren u ¨ berlegt haben, kann man in den seltensten F¨allen die L¨osungen von nichtlinearen Gleichungen mit Hilfe von Formeln angeben, womit wir auf N¨ aherungsverfahren angewiesen sind. Ein m¨ ogliches Verfahren kann man sich f¨ ur den Fall V = R und f : R → R wie folgt geometrisch u ¨ berlegen: y
6
y=x
f (x)
x0
-x
x1 x2 x∗ Abb. 13.1
Jede L¨ osung x∗ der Gleichung f (x) = x ist Schnittpunkt der Geraden y = x mit dem Graph der Funktion y = f (x). Gibt man sich nun als erste N¨ aherung f¨ ur x∗ ein gewisses x0 vor und bildet x1 := f (x0 ), x2 := f (x1 ), . . . , xn+1 := f (xn ) (n ∈ N), so erhalten wir in dem in Abbildung 13.1 skizzierten Fall eine Folge von N¨aherungswerten xn (n ∈ N) f¨ ur x∗ , die gegen x∗ konvergiert. Dieses Verfahren liefert aber nicht in jedem Fall eine L¨ osung, wie das Beispiel aus Abbildung 13.2 zeigt. y
y=x
6
f (x) x0 = x2 = ...
x∗
-x x1 = x3 = ...
Abb. 13.2
Im n¨ achsten Abschnitt soll nun f¨ ur beliebige Vektorr¨aume gekl¨art werden, unter welchen Bedingungen das oben angegebene Iterationsverfahren L¨osungen liefert. In nachfolgenden Abschnitten werden wir dann dieses Verfahren f¨ ur konkrete Aufgaben modifizieren.
13.2 Der Banachsche Fixpunktsatz
375
13.2 Der Banachsche Fixpunktsatz In diesem Abschnitt bezeichne V stets einen Vektorraum u ¨ ber dem K¨orper K, auf dem eine Norm "." definiert ist. In Verallgemeinerung bekannter Konvergenzbegriffe f¨ ur Folgen reeller Zahlen definieren wir: Definition Sei (xn )n∈N (:= (x1 , x2 , x3 , . . .)) eine Folge von Elementen xn (n ∈ N) aus V . Dann heißt (xn )n∈N konvergent :⇐⇒ (∀ ε > 0 ∃n0 ∀n, m ≥ n0 : "xn − xm " < ε). Definition Es sei (xn )n∈N eine Folge von Elementen aus V und x∗ ∈ V . Dann heißt x∗ Grenzwert von (xn )n∈N :⇐⇒ (∀ ε > 0 ∃n0 ∀n ≥ n0 : "xn − x∗ " < ε). Wir schreiben wie u ¨blich: lim xn = x∗ .
n→∞
Man kann leicht beweisen, daß eine Folge, die einen Grenzwert besitzt, konvergiert. Jedoch besitzt nicht jede konvergente Folge eines Vektorraums V auch einen Grenzwert in V , wie folgendes Beispiel zeigt: Sei V = Q und xn := (1 + n1 )n (n ∈ N). Dann gilt limn→∞ xn = e ∈ R\Q.1 Definition Ein Vektorraum K V , in dem jede konvergente Folge einen Grenzwert in V besitzt, heißt Banach-Raum2 . 1
Kurz zum Beweis, den man ausf¨ uhrlich in B¨ uchern u ¨ ber Analysis nachlesen kann. Indem man die Monotonie und Beschr¨ anktheit der Folge (xn )n∈N zeigt, folgt aus dem Satz von Bolzano-Weierstraß, daß limn→∞ xn existiert. Man kann auf diese Weise die Zahl e durch e := limn→∞ xn definieren. Mit Hilfe der Zahl e l¨ aßt sich die Potenzfunktion f (x) := ex definieren, deren Ableitung wieder f (x) ist. Nach dem Satz von Taylor (f¨ ur die Funktion f (x) = ex und x = 0 sowie unter Verwendung des Restglieds von Lagrange) existiert f¨ ur jedes n ∈ N0 ein reelle Zahl ϑ ∈ (0, 1) mit e=1+1+
1 1 eϑ 1 + + ... + + 2! 3! n! (n + 1)!
Angenommen, e ∈ Q, d.h., es existieren p, q ∈ N mit e = pq . Die Zahl n l¨ aßt sich ur e folgt dann f¨ ur so groß w¨ ahlen, daß e · n! = pq · n ∈ N. Aus obiger Gleichung f¨ n ≥ 2 ein Widerspruch: n! n! · n!} = n! + n! + + ... + + |e {z 2! n!} | {z ∈N ∈N
2
eϑ . n+1 | {z } ϑ N, da 1 < e < 3 ∈
Also gilt e ∈ R\Q. Stefan Banach (1892–1945), polnischer Mathematiker. Verfaßte Arbeiten u ¨ ber die Theorie der reellen Funktionen, u ¨ ber Orthogonalreihen, u ¨ ber Maßtheorie und zur Theorie der linearen Operatoren in abstrakten R¨ aumen.
376
13 Gleichungsaufl¨ osung
Satz 13.2.1 (Banachscher Fixpunktsatz) Sei A eine (bez. Grenzwertbildung) abgeschlossene Teilmenge eines BanachRaumes K V und bezeichne f eine Abbildung von A in A. Außerdem existiere ein k ∈ [0, 1) ⊂ R, (13.4)
das die sogenannte Lipschitz-Bedingung3
∀ x, x′ ∈ A : "f (x) − f (x′ )" ≤ k · "x − x′ "
(13.5)
erf¨ ullt. Dann besitzt die Abbildung f in A genau einen Fixpunkt x∗ und die Folge x0 gegeben, (13.6) xn+1 := f (xn ) (n ∈ N0 ) konvergiert f¨ ur beliebig gew¨ahltes x0 ∈ A gegen x∗ .
Beweis.
Zum Beweis gen¨ ugt es, die folgenden drei Aussagen zu beweisen:
(1.) Die Folge (xn )n∈N konvergiert. (2.) x∗ := limn→∞ xn ist Fixpunkt von f . (3.) x∗ ist eindeutig bestimmt. Zu (1.): Wir haben zu zeigen, daß "xn − xm " beliebig klein wird, wenn n, m nur hinreichend groß gew¨ ahlt werden. Zun¨ achst ergibt sich aus der Lipschitz-Bedingung die folgende Absch¨atzung f¨ ur "xn+1 − xn ": Def.
"xn+1 − xn " = "f (xn ) − f (xn−1 )" Vor.
Def.
≤ k · "xn − xn−1 " = k · "f (xn−1 ) − f (xn−2 )"
Vor.
≤ k 2 · "xn−1 − xn−2 " ≤ . . . ≤ k n · "x1 − x0 ".
Es gilt also "xn+1 − xn " ≤ k n · "x1 − x0 ".
(13.7)
Hieraus erhalten wir unter Verwendung der Normeigenschaften ( Dreiecksun” gleichung“) f¨ ur m > n: 3
Rudolf Lipschitz (1832–1903), deutscher Mathematiker. Arbeiten zur Theorie der Differentialgleichungen, zur Potentialtheorie und zur Reihenlehre.
13.2 Der Banachsche Fixpunktsatz
377
"xm − xn " = "(xm − xm−1 ) + (xm−1 − xm−2 ) + . . . + (xn+1 − xn )" ≤ "xm − xm−1 " + "xm−1 − xm−2 " + . . . + "xn+1 − xn "
≤ k m−1 · "x1 − x0 " + k m−2 · "x1 − x0 " + . . . + k n · "x1 − x0 " = k n · (k m−n−1 + k m−n−2 + . . . + k + 1) ·"x1 − x0 " , m−n 1 − k kn · 1−k
womit gilt: ∀m > n ≥ 1 : "xm − xn " ≤
kn − km · "x1 − x0 ". 1−k
(13.8)
ur n, m → ∞ gegen Wegen der Voraussetzung (13.4) streben k n und k m f¨ 0, d.h., die rechte Seite von (13.8) kann bei passender Wahl von n, m stets kleiner als ein beliebig vorgegebenes ε > 0 werden. Folglich ist unsere Folge (xn )n∈N konvergent. Zu (2.): Da in jedem Banach-Raum die Grenzwerte von konvergenten Folgen zum Raum geh¨ oren und A abgeschlossen ist, existiert in A ein x∗ mit x∗ := limn→∞ xn . Zum Nachweis von f (x∗ ) = x∗ betrachten wir die folgenden Ungleichungen: "f (x∗ ) − x∗ " = "f (x∗ ) − f (xn−1 ) + f (xn−1 ) − x∗ "
≤ "f (x∗ ) − f (xn−1 )" + " f (xn−1 ) −x∗ " = xn ≤ k · "x∗ − xn−1 " + "xn − x∗ ".
(13.9)
Aus der Konvergenz der Folge (xn )n∈N folgt nun, daß die rechte Seite von (13.9) beliebig klein bei einem passend gew¨ ahlten n werden kann. Da "." ≥ 0, ur ergibt sich hieraus "f (x∗ ) − x∗ " = 0, was nach den Normaxiomen nur f¨ f (x∗ ) − x∗ = 0 bzw. f (x∗ ) = x∗ m¨ oglich sein kann. Zu (3.): Angenommen, es existiert ein von x∗ verschiedener zweiter Fixpunkt x∗∗ von f . Dann gilt (unter Verwendung von (13.5)): "x∗ − x∗∗ " = "f (x∗ ) − f (x∗∗ )" ≤ k · "x∗ − x∗∗ ", woraus sich (1 − k) · "x∗ − x∗∗ " ≤ 0
(13.10)
ullergibt. Da 1 − k > 0 und "." ≥ 0 ist (13.10) nur im Fall "x∗ − x∗∗ " = 0 erf¨ bar, d.h., es gilt x∗ = x∗∗ , im Widerspruch zu unserer Annahme x∗ = x∗∗ .
378
13 Gleichungsaufl¨ osung
Dem Beweis von Satz 13.2.1 kann man zwar bereits Fehlerabsch¨atzungen entnehmen, jedoch wollen wir uns nachfolgend noch eine Absch¨atzung u ¨ berlegen, in der nur k und die ersten N¨ aherungen x0 sowie x1 f¨ ur x vorkommen. Satz 13.2.2 f erf¨ ulle die Voraussetzungen von Satz 13.2.1, und es sei f (x∗ ) = x∗ . Dann gilt "x∗ − xn " ≤
kn · "x1 − x0 " 1−k
(13.11)
f¨ ur alle n ≥ 2. Beweis.
Aus der Definition der xi und den Voraussetzungen erh¨alt man "x∗ − xn " = "f (x∗ ) − f (xn ) + f (xn ) − xn " ≤ "f (x∗ ) − f (xn )" + " f (xn ) −xn " = xn+1 ≤ k · "x∗ − xn " + "xn+1 − xn ".
Folglich (unter Verwendung von (13.7) aus dem Beweis von Satz 13.2.1): (1 − k) · "x∗ − xn " ≤ "xn+1 − xn " ≤ k n · "x1 − x0 ". Hieraus folgt dann unsere Behauptung. Wie kann man aber nun feststellen, ob eine gegebene Abbildung die LipschitzBedingung erf¨ ullt? Wir werden diese Frage f¨ ur gewisse Klassen von Abbildungen f in den sich anschließenden Abschnitten beantworten. Ein erstes einfaches Beispiel liefert der folgende Satz. Satz 13.2.3 Bezeichne f eine Funktion aus C[a, b] (d.h., f ist eine stetige Funktion u ur alle x ∈ (a, b) differenzierbar ¨ ber dem Intervall [a, b] ⊂ R ), die f¨ ist und deren Ableitung f ′ zu C[a, b] geh¨ort. Dann gilt ∀ x1 , x2 ∈ [a, b] : |f (x1 ) − f (x2 )| ≤ ( max |f ′ (x)|) · |x1 − x2 |. x∈[a,b]
(13.12)
Beweis. Die Behauptung unseres Satzes ist eine direkte Folgerung aus dem Mittelwertsatz der Differentialrechnung4 , nach dem (unter den gegebenen Voraussetzungen) f¨ ur beliebig ausgew¨ ahlte x1 , x2 ∈ [a, b] ein gewisses τ ∈ (x1 , x2 ) mit f (x1 ) − f (x2 ) = f ′ (τ ) x1 − x2 existiert. 4
Siehe ein beliebiges Buch u ¨ ber Analysis.
13.3 Das Newton-Verfahren, die Regula falsi
379
13.3 Das Newton-Verfahren, die Regula falsi Sei nachfolgend g ∈ C[a, b], d.h., g ist eine (reellwertige) stetige Funktion u ¨ ber dem Intervall [a, b] ⊂ R . Gilt g(a) · g(b) < 0 (d.h., g(a) und g(b) haben unterschiedliche Vorzeichen), so besitzt g in [a, b] mindestens eine Nullstelle, die man durch das sogenannte Bisektionsverfahren (Methode der Intervallhalbierung) grob ann¨ ahern (bzw., falls man nur lange genug rechnet, auch berechnen) kann: Gegeben: g (Funktion) a, b (Intervallgrenzen mit a < b, g(a) > 0 und g(b) < 0) ε (Genauigkeitsschranke) Bisektionsverfahren: 1. x := a+b (Intervallhalbierung) 2 2. falls g(x) ≤ 0, dann b := x, sonst a := x (Auswahl des neuen Intervalls) 3. falls |b − a| > ε, dann Schritt 1., (R¨ ucksprung, falls Intervall noch zu groß) sonst drucke a, b Das Ergebnis dieses Verfahrens sind neue Intervallgrenzen a, b einer Nullstelle von g, f¨ ur die |b − a| ≤ ε gilt. Offenbar konvergiert das Bisektionsverfahren f¨ ur jede Funktion g gleich langsam. Aus diesem Grunde ist dieses Verfahren zumeist nur dazu geeignet, erste N¨ aherungen f¨ ur die Nullstellen von g zu ermitteln. Nachfolgend sollen nun zwei Verfahren vorgestellt werden, mit denen man vorhandene Nullstellen von g unter Kenntnis gewisser Anfangsn¨aherungen berechnen kann. Herleiten lassen sich diese Verfahren mit Hilfe des Banach¨ schen Fixpunktsatzes unter Verwendung der folgenden Uberlegung, die man leicht nachpr¨ uft. Lemma 13.3.1 Sei µ eine Funktion mit µ(x) = 0 f¨ ur alle x ∈ [a, b] und f (x) := x − µ(x) · g(x). Dann gilt f¨ ur beliebige x ∈ [a, b]: g(x) = 0 ⇐⇒ f (x) = x, d.h., die Berechnung einer Nullstelle von g ist gleichbedeutend mit der Berechnung eines Fixpunktes von f. Wir wollen jetzt die Funktion µ so festlegen, daß die Berechnung des Fixpunktes von f m¨ oglichst gut durch das im Abschnitt 13.2 beschriebene Iterationsverfahren (13.6) m¨ oglich wird. ur alle x ∈ [a, b] von Null Falls die erste Ableitung g ′ von g existiert und f¨ verschieden ist, k¨ onnen wir
380
13 Gleichungsaufl¨ osung
µ(x) :=
1 g ′ (x)
w¨ ahlen. Dann gilt f (x) := x −
g(x) g ′ (x)
und als Spezialfall von Satz 13.2.1 erhalten wir: Newton-Verfahren5 : x0 (vorgegebene N¨aherung) n = 0, 1, 2, . . . (Schrittnummer) g(xn ) xn+1 := xn − g′ (xn ) Geometrisch l¨ aßt sich dieses Verfahren wie folgt deuten (siehe Abbildung 13.3): Zu vorgegebenen x0 lege man im Punkt (x0 , g(x0 )) die Tangente an den Graph der Funktion g, die sich bekanntlich durch die Gleichung y − g(x0 ) = 0) g ′ (x0 ) · (x − x0 ) beschreiben l¨ aßt. x1 := x0 − gg(x ′ (x ) ist dann der Schnitt0 punkt dieser Tangente mit der x-Achse. Konstruktion der Tangente im Punkt (x1 , g(x1 )) und Berechnung des Schnittpunktes mit der x-Achse liefert dann x2 , usw. Offenbar konvergiert dieses Verfahren in dem in der Abbildung 13.3 angegebenen Fall. Ein Beispiel f¨ ur das Versagen dieses Verfahrens kann man der Abbildung 13.4 entnehmen. y 6
g(x)
x0
x∗
x2 x1
-x
Abb. 13.3
5
Isaac Newton (1642–1727), englischer Physiker und Mathematiker. Begr¨ under der theoretischen Physik und der Himmelsmechanik, Mitbegr¨ under der Infinitesimalrechnung.
y 6
13.3 Das Newton-Verfahren, die Regula falsi
381
g(x)
x1 = x3-= ... x
x0 = x2 = ...
Abb. 13.4
Satz 13.3.2 Das Newton-Verfahren zur Berechnung der Nullstelle x∗ ∈ [a, b] von g(x) konvergiert f¨ ur eine beliebige Anfangsn¨aherung x0 ∈ [a, b], falls g ur alle x ∈ [a, b] ist und ein k ∈ [0, 1) zweimal differenzierbar ist, g ′ (x) = 0 f¨ mit der folgenden Eigenschaft existiert: g(x) · g ′′ (x) ≤ k. ∀x ∈ [a, b] : (g ′ (x))2
Beweis. Unser Satz l¨ aßt sich mit Hilfe der S¨atze 13.2.1 und 13.2.3 beweisen. Dazu sei daran erinnert, daß wir das Newton-Verfahren durch Wahl von f (x) := x − gg(x) ′ (x) aus Satz 13.2.1 erhalten haben. Wegen Satz 13.2.3 konvergiert folglich unser Verfahren, wenn wir zeigen k¨onnen, daß die erste Ableitung der Funktion f (x) im betrachteten Intervall betragsm¨aßig echt kleiner 1 ist. Offenbar gilt f ′ (x) = 1 −
g(x) · g ′′ (x) (g ′ (x))2 − g(x) · g ′′ (x) = . ′ 2 (g (x)) (g ′ (x))2
Erf¨ ullt also g die im Satz genannten Voraussetzungen, so konvergiert das Newton-Verfahren nach Satz 13.2.3. Beispiel Seien g(x) := x2 − a und a > 0. Da in diesem Fall g ′ (x) = 2 · x 2 −a und damit f (x) = x √ − x 2x = 12 · (x + xa ) ist, l¨ aßt sich eine der zwei Nullstellen von g – wir w¨ ahlen a – mit dem Newton-Verfahren wie folgt berechnen: 1+a 2 xn+1 = 12 ·
x0 :=
(xn +
a xn )
(n = 0, 1, 2, . . .). √ √ wurde gew¨ ahlt, weil in diesem Fall x0 :=√1+a 2 √ x0 ∈ [ a, b] mit b > a, ur alle n ∈ N und f¨ ur alle x ∈ [ a, b] xn ∈ [ a, x0 ] f¨
382
13 Gleichungsaufl¨ osung
g(x) · g ′′ (x) 1 = − a ≤ 1− a <1 (g ′ (x))2 2 2x2 2 2b2
gilt, woraus sich nach Satz 13.3.2 die Konvergenz des oben stehenden Verfahrens ergibt. Bemerkung Da der Nachweis der Konvergenz f¨ ur das Newton-Verfahren meist aufwendig ist, verschafft man sich mit Hilfe des Bisektionsverfahrens zun¨ achst gewisse Intervallgrenzen a0 , b0 und beginnt mit der Iteration nach dem Newton-Verfahren, wobei x0 := a0 gew¨ ahlt wird. Liegt das berechnete x1 außerhalb des Intervalls [a0 , b0 ], so verkleinert man das Intervall [a0 , b0 ] durch Wahl eines c (z.B. indem man w¨ ahlt). Ist g(c) · g(a0 ) < 0, so setzt man a1 := a0 das Intervall halbiert und c := a+b 2 und b1 := c, ist g(c) · g(a0 ) > 0, so setzt man a1 := c und b1 := b0 und beginnt die Iteration von neuem, usw.
Ist die Funktion g nicht differenzierbar oder die erste Ableitung von g schwer berechenbar, so kann man z.B. µ :=
x − x0 g(x) − g(x0 )
w¨ ahlen und erh¨ alt als neues Verfahren zur Berechnung einer Nullstelle von g: Regula falsi, erste Form: x0 , x1 n = 1, 2, . . . xn+1 := xn −
xn − x0 · g(xn ) g(xn ) − g(x0 )
(vorgegebene N¨aherungen) (Schrittnummer)
Geometrisch l¨ aßt sich dieses Verfahren analog zum Newton-Verfahren deuten, indem man anstelle der Tangente im Punkt x0 die Gerade durch die Punkur die te (x0 , g(x0 )) und (x1 , g(x1 )) betrachtet und als neue N¨aherung x2 f¨ gesuchte Nullstelle von g den Schnittpunkt dieser Geraden mit der x-Achse ¨ w¨ ahlt (siehe Abbildung 13.5; Beweis: UA). y g(x) 6
x0
x2
x3
x1 x
Abb. 13.5
Im allgemeinen konvergiert die Regula falsi (1. Form) schlechter als das Newton-Verfahren. Auch die Modifikation dieses Verfahrens
13.3 Das Newton-Verfahren, die Regula falsi
383
Regula falsi, zweite Form: x0 , x1 n = 1, 2, . . . xn+1 := xn −
xn − xn−1 · g(xn ) g(xn ) − g(xn−1 )
(vorgegebene N¨aherungen) (Schrittnummer)
liefert keine wesentliche Verbesserung, jedoch ist auch hier – wie bei der ersten Form – der Rechenaufwand in einem einzelnen Schritt i.allg. geringer als beim Newton-Verfahren. Ein Konvergenzkriterium f¨ ur den Fall, daß die Funktion g zweimal differenzierbar ist, l¨ aßt sich analog zum Beweis von Satz 13.3.2 (unter ¨ Verwendung von Satz 13.2.3) herleiten (UA). S¨amtliche in diesem Abschnitt vorgestellten Verfahren zur Nullstellenberechnung sind nat¨ urlich auch kombinierbar. Nachfolgend geben wir hier als Beispiel ein Verfahren an, das man ausf¨ uhrlich in [Mae 88], S. 24–25 erl¨ autert findet. Regula-falsi-Newton-Verfahren zum Einschließen von Nullstellen: g differenzierbare Funktion (muß als Unterprogramm vorliegen) erste Ableitung von g (muß als Unterprogramm vorliegen) g′ a, b Intervallgrenzen mit g(a) > 0 und g(b) ≤ 0 ε Genauigkeitsschranke M AX maximale Schrittanzahl α Steuerparameter mit 0 ≤ α < 0.25 Funktionswerte ga := g(a), gb := g(b) n = 1, 2, . . . , M AX Schrittz¨ ahler 1 x := a − gbb−a · g Regula falsi a −ga gx := g(x) Funktionswert falls gx ≤ 0, dann b := x, gb := gx , x := a, gx := ga , sonst a := x, ga := gx , x := b, gx := gb . g1 := g ′ (x) Wert der 1. Ableitung falls |g1 | < ε, dann Schritt 4 2 x := x − ggx1 Newton-Schritt q1 := x−a , q2 := b−x b−a b−a 3 falls q1 · q2 > α, dann Schritt 5 Intervallhalbierung, 4 x := a + (b − a) · 0.5 falls Newton-N¨ aherung ungeeignet Funktionswert zur 5 gx := g(x) Newton- oder Bisektionsn¨ aherung falls gx ≤ 0, dann b := x, gb := gx , sonst a := x, ga := gx drucke n, a, b 6 falls |b − a| < ε, dann stop drucke: Geforderte Genauigkeit nicht erreicht.
384
13 Gleichungsaufl¨ osung
Obiger Algorithmus findet wie das Bisektionsverfahren eine Einschließung f¨ ur eine Nullstelle aus dem Startintervall. Das gilt auch, wenn sich im Startintervall mehrere Nullstellen befinden.
13.4 Polynomgleichungen Wegen ihrer leichten Berechenbarkeit treten Polynome in vielen Bereichen der angewandten Mathematik auf. Oft werden sie als N¨aherungen f¨ ur kompliziertere Funktionen benutzt.6 Eine erste Zusammenstellung der wichtigsten Eigenschaften von Polynomen erfolgte bereits im Kapitel 8. Nachfolgend wollen wir einiges dazu erg¨anzen und uns kurz mit N¨ aherungsverfahren zur Nullstellenberechnung von Polynomen befassen. Bezeichne in diesem Abschnitt pm das folgende Polynom m-ten Grades: pm (x) := am · xm + am−1 · xm−1 + . . . + a1 · x + a0 ,
(13.13)
wobei ai ∈ R (i = 0, 1, . . . , m) und am = 0. F¨ ur viele N¨ aherungsverfahren zur Nullstellenberechnung ben¨otigt man (grobe) N¨ aherungen dieser Nullstellen. Wir beginnen deshalb mit dem Ermitteln von Intervallen, in denen sich die Nullstellen von pm befinden. Anschließend wird dann das f¨ ur unsere N¨ aherungsverfahren ben¨ otigte Horner-Schema wiederholt und etwas modifiziert. 13.4.1 Absch¨ atzungen f¨ ur Polynomnullstellen Eine erste Grobabsch¨ atzung liefert der Satz 13.4.1.1 Bezeichne α (∈ C) eine beliebige Nullstelle des Polynoms (13.13) und seien |ai | (13.14) A := max i∈{0,1,...,m−1}
sowie B :=
max
i∈{1,...,m}
|ai |.
(13.15)
Dann gilt |a0 | |am | + B ≤ |α| ≤ . |a0 | + A |am | Beweis. Siehe [Kie-M 74], S. 113. Beispiel Sei p4 (x) := x4 − 3x3 − 8x2 − 17x − 4. 6
Siehe auch Kapitel 15.
(13.16)
13.4 Polynomgleichungen
385
Da |a0 | = 4, |am | = 1 und A = B = 17, erhalten wir aus (13.16) f¨ ur beliebige Nullstellen α dieses Polynoms die Absch¨ atzung 0.19 ≤ |α| ≤ 18, d.h., α befindet sich in einem Ringgebiet der komplexen Zahlenebene mit dem inneren Radius 0.19 und dem ¨ außeren Radius 18. Diese Absch¨atzung ist sehr grob, da die betragsm¨ aßig gr¨ oßte Nullstelle 5.1972 ist. Weitere Absch¨ atzungen f¨ ur die Nullstellen findet man in [Mae 88], S. 38. Ohne Beweis sei hier noch auf eine Eigenschaft der Nullstellen spezieller Polynome hingewiesen: Satz 13.4.2 (Satz von Laguerre7 ) Ist (13.13) ein Polynom mit nur reellen Nullstellen und ist am = 1, so liegen alle Nullstellen von pm in dem Intervall, das von den beiden Wurzeln der quadratischen Gleichung m · x2 + 2 · am−1 · x + 2 · (m − 1) · am−2 − (m − 2) · a2m−1 = 0
(13.17)
gebildet wird. Beispiel
Das Polynom p3 (x) := x3 − 2x2 − 12x + 4
ist das charakteristische Polynom der symmetrischen Matrix 0 1 123 @2 0 0A. 301
Bekanntlich besitzt p3 dann nur reelle Nullstellen. Nach Satz 13.4.2 liegen folglich die Nullstellen dieses Polynoms im Intervall [x1 , x2 ], wobei x1 und x2 die Nullstellen des Polynoms 3x2 − 4x − 52 q . Also x2 ≈ 4.883 und sind, die sich leicht berechnen lassen. Es gilt x1/2 := 32 ± 160 9 aherungswerte f¨ ur die drei Nullstellen von p3 sind: x1 ≈ −3.550. (Zum Vergleich: N¨ −2.79859, 0.31907 und 4.47952.)
In den ermittelten Intervallen f¨ ur die Nullstellen kann man dann durch Wertetabellen eine Skizze des Polynoms herstellen und daraus N¨aherungen der Nullstellen ablesen. Verbessern lassen sich diese ersten N¨aherungen f¨ ur die Nullstellen durch das im Abschnitt 13.3, S. 379 angegebene Bisektionsverfahren. 13.4.2 Das Horner-Schema und das zweizeilige Horner-Schema Wie wir uns bereits im Kapitel 8 u ¨berlegt haben, lassen sich die Koeffizienten des Polynoms qm−1 (x) := bm−1 · xm−1 + bm−2 · xm−2 + . . . + b1 · x + b0 und pm (α) mit pm (x) = (x − α) · qm−1 (x) + pm (α) 7
Edmond Laguerre (1834–1886), franz¨ osischer Mathematiker.
386
13 Gleichungsaufl¨ osung
mittels der Vorschrift bm−1 := am bm−i−1 := am−i + bm−i · α (i = 1, . . . , m − 1) und pm (α) := a0 + b0 · α
(13.18)
berechnen. F¨ ur die Handrechnung benutzt man dabei das (sogenannte) HornerSchema: ... a1 a0 – bm−1 · α bm−2 · α bm−3 · α . . . b1 · α b0 · α * * * * * * ... bm−1 bm−2 bm−3 bm−4 pm (α) b0 am−1
am
α
am−2
am−3
Wie man leicht nachrechnet, gilt f¨ ur den Wert der 1. Ableitung von pm (x) an der Stelle x = α: p′m (α) = qm−1 (α), womit sich dieser Wert nach (13.18) wie folgt berechnen l¨aßt: cm−2 := bm−1 cm−i−2 := bm−i−1 + cm−i−1 · α (i = 1, . . . , m − 2) und p′m (α) := b0 + c0 · α
(13.19)
F¨ ur die Handrechnung ergibt sich damit zusammengefaßt das folgende Schema zur Berechnung von pm (α) und p′m (α): am α −
am−1 am−2 am−3 . . . a1 bm−1 · α bm−2 · α bm−3 · α . . . b1 · α
bm−1 bm−2 bm−3 bm−4 . . . b0 α − cm−2 · α cm−3 · α cm−4 · α . . . c0 · α cm−2 cm−3
cm−4
cm−5
a0 b0 · α pm (α)
. . . p′m (α)
Das Horner-Schema kann nat¨ urlich auch zur Berechnung komplexer Werte eines Polynoms herangezogen werden, um die (eventuell vorkommenden) komplexen Nullstellen zu berechnen. Diese Rechnungen sind jedoch meist sehr aufwendig. Wir werden uns deshalb anschließend ein etwas modifiziertes HornerSchema f¨ ur diese Zwecke u ¨ berlegen. Zur Herleitung eines solchen Verfahrens dividieren wir zun¨ achst pm (x) durch das Polynom x2 + p · x + q und erhalten pm (x) = (x2 +p·x+q)·(bm−2 ·xm−2 +bm−3 ·xm−3 +. . .+b1 ·x+b0 )+c1 ·x+c0 , (13.20) wobei
13.4 Polynomgleichungen
bm−2 bm−3 bm−4 bm−5 b1 b0 c1 c0
:= := := := .. .
am am−1 − p · bm−2 am−2 − p · bm−3 − q · bm−2 am−3 − p · bm−4 − q · bm−3
:= := := :=
a3 − p · b 2 − q · b 3 a2 − p · b 1 − q · b 2 a1 − p · b 0 − q · b 1 a0 − q · b 0
.
387
(13.21)
Verifizieren lassen sich obige Formeln (13.21) auch durch Ausrechnen der rechten Seite von (13.20), anschließendem Zusammenfassen und Koeffizientenvergleich mit der linken Seite von (13.20). F¨ ur die Handrechnung ist das sogenannte zweizeilige Horner-Schema geeignet: am−3
...
a2
–−p · bm−2−p · bm−3−p · bm−4 – –−q −q · bm−3 · bm−2 : : bm−2 bm−3 bm−4 bm−5
...
−p · b1
am −p −q
am−1
am−2
... ...
a1
a0
– −p · b0 −q · b2 −q · b1 :−q · b0 c1 c0 b0
Beispiel Sei pm (x) := x4 − 3 · x3 − 8 · x2 − 17 · x − 4, p = 2 und q = 3. Mit Hilfe des zweizeiligen Horner-Schemas 1 −3 −8 −17 −4 −2 − −2 10 2 − −3 − − −3 15 3 1 −5 −1 0 −1 erh¨ alt man dann x4 − 3 · x3 − 8 · x2 − 17 · x − 4 = (x2 + 2 · x + 3) · (x2 − 5 · x − 1) − 1. Das zweizeilige Horner-Schema ist nun verwendbar bei der Berechnung von pm (α + i · β) mit α + i · β ∈ C, wobei s¨ amtliche Zwischenergebnisse reell sind. Wir w¨ahlen dazu p := −2 · α und q := α2 + β 2 . (13.22) Das Polynom x2 + p · x + q hat dann die Nullstellen α + i · β und α − i · β, wie man nachrechnen kann. Aus (13.20) ergibt sich folglich: pm (α + i · β) = c1 (α + i · β) + c0 ,
388
13 Gleichungsaufl¨ osung
wobei sich die Koeffizienten c1 und c0 nach (13.21) berechnen lassen. Beispiel Seien pm (x) = x3 + x2 − x + 1 und α + i · β = 2 + i. Nach (13.22) haben wir dann p = −4 und q = 5 und aus dem Schema 1 1 −1 1 −4 − 4 20 − −5 − − −5 −25 1 5 14 −24 erhalten wir pm (2 + i) = 14 · (2 + i) − 24 = 4 + 14 · i. Zum Vergleich sei noch die Rechnung mit dem einfachen Horner-Schema angegeben: 1 1 −1 1 2+i 2 + i 5 + 5 · i 3 + 14 · i 1 3 + i 4 + 5 · i 4 + 14 · i 13.4.3 Verfahren zur Nullstellenberechnung von pm Nach den Vorbereitungen aus den Abschnitten 13.4.1 und 13.4.2 lassen sich unsere Verfahren aus Abschnitt 13.3 leicht erg¨anzen. Nachfolgend sei hier nur das Newton-Verfahren zur Berechnung einer reellen Nullstelle des Polynoms pm angegeben: Newton-Verfahren zur Berechnung einer Nullstelle α von pm (x): m Polynomgrad a := (am , am−1 , . . . , a0 ) Koeffizienten von pm M AX vorgegebene maximale Schrittzahl ε Genauigkeitsschranke erste N¨ aherung f¨ ur α x0 x := x0 ⎡ n = 1, 2, . . . , M AX Schrittz¨ahler ⎢ bm−1 := am , cm−2 := am Startwerte ⎢ : Horner-Schema zur ⎢ ⎢ j = 2, 3, . . . , m Berechnung der ⎢ ⎢ bm−j := am−j+1 + x · bm−j+1 Hilfsgr¨oßen bj ⎢ ⎢ p := a + x · b pm (x) ⎢ x 0 0 ⎢ falls |p | < ε, dann 1 ⎢ x ⎢ : Horner-Schema zur ⎢ k = 3, 4, . . . , m ⎢ Berechnung der ⎢ cm−k := bm−k+1 + x · cm−k+1 ⎢ Hilfsgr¨oßen ck ⎢ ′ ⎢ px := b0 + x · c0 p′m (x) ⎢ ⎣ falls |p′x | < ε, dann drucke x0 a ndern“, stop ¨ ” Newton-Schritt x := x − pp′x x
drucke Genauigkeit nach M AX Schritten nicht erreicht“ ” 1: drucke n, x.
13.4 Polynomgleichungen
389
Beispiel Sei p5 (x) := 3 · x5 − 2 · x4 + x2 − 7 · x − 4. Nach Satz 13.4.1.1 gilt f¨ ur die Nullstellen α von p5 : 0.36 ≤ |α| ≤ 3.34. Ermitteln einiger Werte von pm (x) aus dem Intervall [−3.34, 3.34] liefert die in Abbildung 13.6 angegebene Skizze der Funktion p5 . y 6
−1
1 2
-x
Abb. 13.6
Die gr¨ oßte (reelle) Nullstelle von p5 l¨ aßt sich dann mit x0 := 1.3 nach dem Newton-Verfahren berechnen. Wir erhalten (bei Rechnung auf 10 Stellen nach dem Punkt genau): x1 x2 x3 x4 x5
= 1.5867609211, pm (x1 ) = 4.9089328451 = 1.5039834213, pm (x2 ) = 0.5864525474 = 1.4911055770, pm (x3 ) = 0.0124710275 = 1.4908196230, pm (x4 ) = 0.0000060316 = 1.4908194846, pm (x5 ) = 0.0000000000
Analog erh¨ alt man (nach maximal 5 Schritten) die beiden anderen reellen Nullstellen des Polynoms pm , indem man als Startwert x0 := −1 bzw. x0 = 0 w¨ ahlt. p5 hat damit (bei Rechnung auf 10 Stellen nach dem Punkt genau) die reellen Nullstellen: α1 := −0.9037672474 α2 := −0.5855311056 α3 := 1.4908194846 Zur Berechnung der komplexen Nullstellen z von pm , die, da pm nur reelle Koeffizienten besitzt, in der Form z und z auftreten, ist das sogenannte Bairstow-Verfahren (siehe [Kie-M 74], S. 109 oder [Mae 88], S. 51) geeignet, das das zweizeilige Horner-Schema mit dem Newton-Verfahren kombiniert und mit dessen Hilfe vom Polynom pm (bei Vorgabe eines Polynoms 2. Grades bzw. von N¨ aherungswerten f¨ ur zwei Nullstellen) ein Polynom 2. Grades abgespalten wird.
390
13 Gleichungsaufl¨ osung
Sind alle Nullstellen eines Polynoms geraden Grades pm (x) gesucht, so besteht auch die M¨ oglichkeit, durch simultane Aufspaltung von pm (x) in Quadratfaktoren, sich N¨ aherungen f¨ ur die Nullstellen zu verschaffen (siehe [Mae 88], S. 53/54). Es sei noch erw¨ahnt, daß es auch N¨ aherungsverfahren gibt, die ohne N¨aherungswerte f¨ ur die gesuchten Nullstellen des Polynoms pm auskommen. Eines dieser Verfahren ist der sogenannte Quotienten-Differenzen-Algorithmus (kurz: QD-Algorithmus), den man z.B. in [Kie-M 74], S. 115 oder [Mae 88], S. 55 erl¨ autert findet. Allerdings konvergiert dieses Verfahren sehr langsam, so daß man in der Regel dieses Verfahren nur benutzt, um sich Startwerte f¨ ur die oben genannten Verfahren zu verschaffen.
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Wir haben zwar in einem vorangegangenen Abschnitt bereits ein L¨osungskriterium sowie den Gauß-Algorithmus als L¨ osungsverfahren f¨ ur beliebige Gleichungssysteme kennengelernt, wollen jedoch die LGS noch einmal unter numerischen Aspekten betrachten. Insbesondere auch deshalb, weil viele andere numerische Verfahren als Kernst¨ ucke das L¨ osen von LGS beinhalten, wie man den im Literaturverzeichnis angegebenen B¨ uchern u ¨ ber Numerische Mathematik entnehmen kann. Der Einfachheit halber betrachten wir hier nur LGS der Form a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 ....................................... an1 x1 + an2 x2 + · · · + ann xn = bn
(14.1)
u orper der reellen Zahlen, die wir kurz (unter Verwendung von ¨ ber dem K¨ Matrizen) in der Form A·x=b (14.2)
aufschreiben werden. Bekanntlich besitzt ein solches LGS genau eine L¨osung, wenn |A| = 0 ist. F¨ ur ¨ unsere nachfolgenden Uberlegungen nehmen wir deshalb |A| = 0
an. Diese Voraussetzung muß jedoch bei konkreten Rechnungen nicht unbedingt sichern, daß man das LGS auch l¨ osen kann. Durch Rechnen mit Ma7 = 0 auftreten, was man insbeschinenzahlen kann n¨ amlich als N¨ aherung |A| sondere bei der Programmierung exakter Verfahren zu ber¨ ucksichtigen hat. Nachfolgend soll zun¨ achst der Gauß-Algorithmus in etwas modifizierter Form wiederholt werden. Anschließend werden einige Hilfsmittel (wie z.B. Normen f¨ ur Vektoren und Matrizen) f¨ ur die folgenden Abschnitte mit elementaren Iterationsverfahren zum L¨ osen von LGS der Form (14.1) bereitgestellt. Den Abschluß bilden dann gewisse Projektionsverfahren, von denen eines auch ein exaktes Verfahren zum L¨ osen von LGS ist.
392
14 Lineare Gleichungssysteme mit genau einer L¨ osung
14.1 Der Gauß-Algorithmus (mit Pivotisierung) ¨ Wir kn¨ upfen an unsere Uberlegungen aus Kapitel 3 an. Als allgemeines und auch wichtigstes Verfahren zum L¨ osen von LGS hatten wir dort den Gauß-Algorithmus kennengelernt. Hat das LGS (14.1) genau eine L¨osung, so u uhrt man (zwecks Einsparung von Rechenschritten) das Ausgangsglei¨ berf¨ chungssystem durch ¨ aquivalente Umformungen am besten in ein System der Gestalt c11 x1 + c12 x2 + · · · + c1n xn = d1 c22 x2 + · · · + c2n xn = d2 (14.3) ...................................... cnn xn = dn bzw. (in Matrizenschreibweise) ⎛
c11 c12 c13 . . . c1n ⎜ 0 c22 c23 . . . c2n ⎜ ⎜ 0 0 c33 . . . c3n ⎜ ⎝ ................... 0 0 0 . . . cnn
⎞
⎛
⎜ ⎟ ⎜ ⎟ ⎟·x= ⎜ ⎜ ⎟ ⎜ ⎠ ⎝
d1 d2 d3 .. . dn
⎞
⎟ ⎟ ⎟ ⎟, ⎟ ⎠
(14.4)
wobei c11 · c22 · . . . · cnn = 0 ist. Aus (14.3) erh¨ alt man dann leicht die L¨ osung von (14.3) durch L¨osen der Gleichungen von unten nach oben: = dn /cnn xn xn−1 = (dn−1 − cn−1,n · xn )/cn−1,n−1 . .......................................... x1 = (d1 − c12 · x2 − . . . − c1n · xn )/c11 Wenn alle hierbei auftretenden Rechenschritte exakt ausgef¨ uhrt werden, dann ist es egal, auf welche Weise man vom Ausgangsgleichungssystem (14.1) zu (14.3) gelangt. In der Regel hat man es jedoch mit approximierten Dezimalbzw. Dualzahlen zu tun und die Fehlerfortpflanzung ist stark abh¨angig von der Art der konkreten Rechnung. Wie wir im Abschnitt 12.2 gesehen haben, wirken sich insbesondere Divisionen durch betragsm¨aßig kleine Elemente und Differenzen von nahezu gleichgroßen Zahlen ung¨ unstig aus. Durch eine geschickte Wahl der Umformungen (die sogenannte Pivotisierung) kann man jedoch diese Fehler verkleinern. Zwecks Beschreibung der Pivotisierung sei noch einmal an den entscheidenden Umformungsschritt beim Gauß-Algorithmus ( Gauß-Schritt“) erinnert: ” Man subtrahiert geeignete Vielfache einer ausgew¨ahlten i-ten Gleichung des LGS, der Pivotgleichung), zu den anderen Gleichungen des LGS. Die neuen Gleichungen berechnen sich dann nach folgender Vorschrift: neue j-te Gleichung := alte j-te Gleichung −
αji · (Pivotgleichung), αii
14.1 Der Gauß-Algorithmus (mit Pivotisierung)
393
wobei αji bzw. αii Koeffizienten der i-ten Variablen in der j-ten bzw. i-ten Gleichung bezeichnen. Das Element αii bezeichnet man auch als Pivotelement. Bei der allgemeinen Pivotisierung wird dann als Pivotgleichung unter den m¨ oglichen ausw¨ ahlbaren Gleichungen, die in ihrer Reihenfolge und in der Anordnung der Summanden ver¨ andert werden k¨ onnen, eine solche i-te Gleichung ausgew¨ ahlt, deren Koeffizient αii ein betragsm¨aßig gr¨oßtes Element unter den m¨ oglichen Elementen ist. Man spricht von Zeilen- bzw. Spaltenpivotisierung, wenn man die Reihenfolge der Summanden in den Gleichungen bzw. die Reihenfolge der Gleichungen festschreibt und folglich Pivotelemente nur innerhalb gewisser (bezogen auf die Matrizenbeschreibung des Gauß-Algorithmus) Zeilen“ bzw. Spalten“ sucht. Dabei ist Zeilenpivotisierung nur sinnvoll, wenn ” ” vorher in allen Gleichungen die Koeffizienten auf die gleiche Gr¨oßenordnung gebracht worden sind. Anderenfalls k¨ onnte jedes von Null verschiedene Element einer festen Spalte durch Multiplikation der betreffenden Gleichung mit einem gewissen Faktor zum betragsm¨ aßig gr¨ oßten Element gemacht werden. Als Beispiel betrachten wir hier nur eine Spaltenpivotisierung. Ausf¨ uhrlich erl¨ autert findet man dieses Beispiel auch in [Mae 84], S. 55–61. Gauß-Algorithmus (mit Spaltenpivotisierung): A ∈ Rn×n (Koeffizientenmatrix) b ∈ Rn×1 (Matrix der rechten Seite) osungsvektors) x ∈ Rn×1 (Matrix des L¨ S := (A, b) = (sij )n,n+1 (Systemmatrix) p := (p1 , . . . , pn ) = (1, 2, . . . , n)T (Indexvektor) ε (Testgr¨ oße) 2 j = 1, 2, . . . , n − 1 (Schrittz¨ ahler) 6 Pivotisierung: Bestimmung eines Index t mit 6 6 ∀i ∈ {j, j + 1, . . . , n} : |sp ,j | ≥ |sp ,j | t i 6 6 Tausch der Komponenten pt und pj 6 6 Regularit¨ atspr¨ ufung: 6 6 Falls |sp ,j | < ε, dann Abbruch: Matrix numerisch singul¨ ar“ 6 j ” 6 6 Gauß-Schritt: 62 6 i = j + 1, j + 2, . . . , n (Zeilenindex) 6 6 6 l := spi ,j /spj ,j 66 4 4 k = j + 1, j + 2, . . . , n + 1 (Spaltenindex) spi ,k := spi ,k − l · spj ,k R¨ uckw¨ artseinsetzen: 2 j = 0, 1, . . . , n − 1 4 m := n − j (Zeilenindex) P xm := (spm ,n+1 − n α=m+1 spm ,α · xα )/spm ,m Schlußkontrolle: » q = 1, 2, . . .P ,n rq := bq − n j=1 aqj · xj
394
14 Lineare Gleichungssysteme mit genau einer L¨ osung
14.2 Vektor- und Matrixnormen Sei
⎛ ⎜ ⎜ ⎜ ⎝
x1 x2 .. . xn
⎞ ⎟ ⎟ ⎟ ⎠
ein Element aus dem Vektorraum Rn×1 . In Verallgemeinerung der L¨ange (des Betrages) von Vektoren verwenden wir in diesem Kapitel folgende Normen: . . x21 + x22 + . . . + x2n (= xT · x; Euklidische Norm“), "x"2 := ” "x"∞ := max1≤i≤n "xi " ( Maximumnorm“), ” "x"1 := |x1 | + |x2 | + . . . + |xn | ( Betragssummennorm“). ” Trotz der unterschiedlichen Werte, die man bei der Berechnung der Normen ¨ ein und desselben Vektors erh¨ alt, besteht eine gewisse qualitative Ubereinstimmung: F¨ ur einen Vektor mit kleiner L¨ ange“ werden alle Normen klein ” ausfallen und f¨ ur einen Vektor mit großer L¨ ange“ groß. ” Mit Hilfe einer Vektornorm kann man nun eine Norm f¨ ur Matrizen wie folgt einf¨ uhren. Definition Bezeichne " · " eine zu dem VR Rn×1 geh¨orende Norm (z.B. " · " = " · "α mit α ∈ {1, 2, ∞, . . .}) und sei A ∈ Rn×n . Die kleinste Zahl k ∈ R mit der Eigenschaft: ∀x ∈ Rn×1 : "A · x" ≤ k · "x" sei mit "A" bezeichnet und heißt die zur Norm " · " geh¨orende Matrixnorm. Lemma 14.2.1 (a) Eine Matrixnorm l¨aßt sich auch wie folgt definieren: ∀A ∈ Rn×n : "A" :=
max
x∈Rn×1 \{o}
"A · x" . "x"
(b) F¨ ur beliebige Matrizen A, B ∈ Rn×n gilt "A · B" ≤ "A" · "B". Beweis.
¨ UA.
.
Satz 14.2.2 Die zu einer Vektornorm " · " des VRs Rn×1 geh¨orende Matrixnorm bildet eine Norm f¨ ur den Vektorraum Rn×n aller Matrizen des Typs (n, n) ¨ uber R.
14.2 Vektor- und Matrixnormen
Beweis.
395
¨ A.6.22. UA
Matrixnormen werden wir beispielsweise im Abschnitt 14.4.3 benutzen, um Konvergenzbedingungen f¨ ur gewisse N¨ aherungsverfahren f¨ ur LGS aufzustellen. Eine erste Anwendung erfolgt bereits im n¨achsten Abschnitt. Die nachfolgenden drei S¨ atze zeigen zun¨ achst, wie man (unabh¨angig von der Definition) konkrete Matrixnormen berechnen kann. Satz 14.2.3 Sei A := (aij )n,n ∈ Rn×n . Dann gilt ⎛ ⎞ n "A"∞ = max ⎝ |aij |⎠ , 1≤i≤n
j=1
d.h., "A"∞ ist die maximale Zeilenbetragssumme.
Beweis.
Zum Beweis haben wir zu zeigen: n (1.) ∀x ∈ Rn×1 : "A · x"∞ ≤ (max1≤i≤n ( j=1 |aij |)) · "x"∞ n (2.) ∃x ∈ Rn×1 \{o} : "A · x"∞ = (max1≤i≤n ( j=1 |aij |)) · "x"∞
Zu (1.): alt man nach Definition der Maximumnorm Falls x := (x1 , x2 , . . . , xn )T , erh¨ sowie durch Anwenden der Dreiecksungleichung f¨ ur den Betrag: =⎛ ⎞= = a11 x1 + a12 x2 + · · · + a1n xn = = = =⎜ a21 x1 + a22 x2 + · · · + a2n xn ⎟= = ⎜ = ⎟ "A · x"∞ = =⎝ ⎠= = ................................. = = an1 x1 + an2 x2 + · · · + ann xn = ∞
=
max1≤i≤n |ai1 x1 + ai2 x2 + · · · + ain xn |
≤
(max1≤i≤n (|ai1 + ai2 + . . . + ain |) · (max1≤i≤n |xi |)
≤
max1≤i≤n (|ai1 | + |ai2 | + . . . + |ain |) · ( max |xi |) 1≤i≤n = "x"∞
Zu (2.): Bezeichne k die Nummer einer Zeile von A, deren Zeilenbetragssumme maximal ist. Ein Element x := (x1 , . . . , xn )T , das die Bedingung (2.) erf¨ ullt, erh¨alt man dann wie folgt: ⎧ ⎨ 1, falls aki > 0, xi := −1, falls aki < 0, ⎩ 0, falls aki = 0
(i = 1, 2, . . . , n).
396
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Satz 14.2.4 Sei A := (aij )n,n ∈ Rn×n . Dann gilt 6 5 n "A"1 = max |aij | , 1≤j≤n
i=1
d.h., "A"1 ist die maximale Spaltenbetragssumme. Beweis.
¨ UA.
Satz 14.2.5 Sei A := (aij )n,n ∈ Rn×n . Dann gilt √ "A"2 = τ , wobei τ den gr¨oßten Eigenwert der Matrix AT · A bezeichnet. Beweis. (1.) (2.) (3.) (4.)
Wir zeigen:
S¨ amtliche Eigenwerte von AT · A sind nicht negativ. AT · A ist symmetrisch. ∀x ∈ Rn×1 : "A · x"22 ≤ τ · "x"22 . ∃x ∈ Rn×1 \{o} : "A · x"22 = τ · "x"22 .
Aus (3.) und (4.) ergibt sich dann unmittelbar die Behauptung des Satzes. Zu (1.): Bezeichne λ einen EW von AT · A mit dem zugeh¨origen EV x. Dann gilt (AT · A) · x = λ · x, woraus sich (durch Multiplikation mit xT ) xT · (AT · A) · x = λ · (xT · x) bzw. (A · x)T · (A · x) = λ · ( xT · x) 2 2 = "A · x"2 = "x"2
ergibt. Hieraus und aus "x"2 > 0 (wegen x = 0) sowie den Normeigenschaften ergibt sich unmittelbar, daß λ ≥ 0 ist. Zu (2.): Aus den Rechenregeln f¨ ur Matrizen (siehe Kapitel 3) folgt (AT · A)T = T T T T A · ((A ) ) = A · A, d.h., AT · A ist symmetrisch. Zu (3.): Nach (2.) und den Eigenschaften symmetrischer Matrizen (siehe Kapitel 8) besitzt AT · A n reelle EWe τ1 , τ2 , . . . , τn , zu denen n orthonormierte EVen e1 , oren, d.h., es gilt: e2 , . . . , en geh¨ ∀i : (AT · A) · ei = τi · ei
14.3 Die Kondition von LGS
und eTi · ej =
397
1 f¨ ur i = j, 0 f¨ ur i = j.
ur B := (e1 , e2 , . . . , en ) ist dann eine Basis des Vektorraums Rn×1 , womit f¨ jedes x ∈ Rn×1 gewisse α1 , α2 , . . . , αn mit n
x=
i=1
αi · ei
existieren. Folglich haben wir "A · x"22 = xT · (AT · A · x) =
5
n i=1
αi · ei
woraus "A ·
x"22
≤
5
6T
n
⎞ n n ⎟ 2 ⎜ αj · AT · A · ej ⎠ = ·⎝ αi · τi , j=1 i=1 τj · ej (14.5) 6
α2i
i=1
= "x"22
⎛
·( max τi ) 1≤i≤n =: τ
folgt. Zu (4.): Bezeichne r den Index eines Eigenwerts τi mit τi = τ und sei x := (er )/B = (0, 0, . . . , 0,
, 0, . . . , 0)T . 1 r-te Stelle
Dann gilt (unter Verwendung von (14.5))
"A · x"22 = xT · (AT · A · x) = τr = τr · "x"22 = τ, =1
womit (4.) und damit auch unser Satz bewiesen ist.
14.3 Die Kondition von LGS 7 ∈ Rn×n , b, 7 7 = Satz 14.3.1 Seien A, A b, x, 7x ∈ Rn×1 , |A| = 0 und |A| 0. (a) Falls A · x = b und A · 7x = 7 b, so gelten die folgenden Absch¨atzungen: "7x − x" ≤ "A−1 " · "7 b − b"
(Absch¨atzung des absoluten Fehlers)
(14.6)
398
14 Lineare Gleichungssysteme mit genau einer L¨ osung e x−x x
≤ "A" · "A−1 " ·
e b−b b
(14.7)
(Absch¨atzung des relativen Fehlers). 7 · 7x = b, so gelten die folgenden Absch¨atzungen: (b) Falls A · x = b und A 7 −1 − A−1 " · "b" "7x − x" ≤ "A
(Absch¨atzung des absoluten Fehlers) e x−x e x
≤ "A" · "A−1 " ·
e A−A A
(14.8)
(14.9)
(Absch¨atzung des relativen Fehlers). Beweis. (a): Aus A · x = b und A · 7x = 7 b ergeben sich (wegen |A| = 0) die −1 −1 7 7 Gleichungen x = A · b und x = A · b. Folglich haben wir b − A−1 · b" = "A−1 (7 b − b)", "7x − x" = "A−1 · 7
woraus sich nach Definition der Norm einer Matrix zun¨achst die Absch¨atzung des absoluten Fehlers b − b" "7x − x" ≤ "A−1 " · "7
und dann (unter Verwendung von "b" = "A · x" ≤ "A" · "x") die Absch¨atzung des relativen Fehlers "7x − x" "A−1 " · "7 b − b" "7 b − b" ≤ ≤ "A−1 " · "A" · "x" "x" "b"
ergibt. (b): Offenbar gilt
7 −1 − A−1 ) · b" ≤ "A 7 −1 − A−1 " · "b". 7 −1 · b − A−1 · b" = "(A "7x − x" = "A
7 · x = b = A · x, daß A−1 · A 7 · 7x = x ist. Hieraus ergibt Außerdem folgt aus A sich nun unter Verwendung der obigen Absch¨ atzung und Lemma 14.2.1, (b): 7 · 7x" = "A−1 · (A − A) 7 · 7x" "7x − x" = "E · 7x − x" = "A−1 · A · 7x − A−1 · A
womit
gilt.
7 · "7x", ≤ "A−1 " · "A − A"
7 "7x − x" 7 = "A" · "A−1 " · "A − A" ≤ "A−1 " · "A − A" "7x" "A"
14.3 Die Kondition von LGS
399
Aus den Absch¨ atzungen (14.7) und (14.9) der relativen Fehler aus Satz 14.3.1 ist erkennbar, daß diese Fehler abh¨ angig sind vom Faktor "A" · "A−1 ". Ist dieser Faktor groß (bzw. klein), so ist auch der entsprechende relative Fehler groß (bzw. klein). Erfassen wollen wir dies mit den folgenden Begriffen. Definitionen Sei A ∈ Rrn×n . Die Zahl "A" · "A−1 " heißt Kondition des LGS A · x = b. Das LGS A · x = b wird gut (bzw. schlecht) konditioniert genannt, wenn die Kondition "A" · "A−1 " klein (bzw. groß) ist. Beispiele (1.): Sei
⎛
1 3 1 4 1 5
1 2 1 3 1 4
⎜ A := ⎝
1 4 1 5 1 6
⎞
⎟ ⎠.
W¨ ahlt man im LGS A · x = b als rechte Seite b := ( 12 , 13 , 14 )T , so ist x3 = 0. alt man dagegen x3 = 1500 · ε. Ein Im Fall b = ( 12 + ε, 13 − ε, 41 + ε)T erh¨ kleiner Fehler ε bei den Eingangsdaten f¨ uhrt also zu einem 1500-fachen bei den Ausgangsdaten. Bei der Kondition des LGS spiegelt sich dies auf folgende Weise wieder: Da ⎛ ⎞ 70 −240 180 A−1 = ⎝ −240 900 −720 ⎠ , 180 −720 600 haben wir (unter Verwendung von Satz 14.2.3) "A"∞ = und
13 12
"A−1 "∞ = 1860,
woraus sich als Kondition
"A"∞ · "A−1 "∞ = 2015 ergibt. (2.): Seien A :=
1 0.99 0.99 0.98
,
b :=
1.99 1.97
Bei exakter Rechnung erh¨ alt man x=
1 1
,
7 b :=
1.989903 1.970106
.
400
14 Lineare Gleichungssysteme mit genau einer L¨ osung
als L¨ osung von A · x = b und 7x =
3 −1.0203
als L¨ osung von A · 7x = 7 b. Die Daten¨ anderung −0.000097 7 b−b= 0.000106
¨ bewirkt eine Anderung der L¨ osung von 2 7x − x = . −2.0203
Also gilt:
"7x − x"∞ "7 b − b"∞ = 2.0203 bei = 0.000053266 . . . , "x"∞ "b"∞
was einem Konditionsfaktor“ von ” 2.0203 ≈ 37928 0.000053266 entspricht. Mit Hilfe von A erh¨ alt man als Kondition
−1
=
−9800 9900 9900 −10000
"A"∞ · "A−1 "∞ = 1.99 · 19900 = 39601.
14.4 Elementare Iterationsverfahren In diesem Abschnitt werden zwei elementare Iterationsverfahren, und zwar das Jacobi- und das Gauß-Seidel-Verfahren, vorgestellt. Das Jacobi-Verfahren werden wir uns aus dem Banachschen Fixpunktsatz herleiten. Das Gauß-Seidel-Verfahren ist dann ein bez. Konvergenz verbessertes Jacobi-Verfahren. 14.4.1 Das Jacobi-Verfahren Um das Jacobi1 -Verfahren zum L¨ osen des LGS (14.1) anwenden zu k¨onnen, muß die Koeffizientenmatrix A folgende Voraussetzung erf¨ ullen, die wir im Abschnitt 14.4.3 noch etwas pr¨ azisieren werden. 1
Carl Gustav Jacob Jacobi (1804–1851), deutscher Mathematiker, der zu den fleißigsten und vielseitigsten Mathematiker der Geschichte gez¨ ahlt wird.
14.4 Elementare Iterationsverfahren
401
Die Diagonalelemente aii von A sind alle = 0 und dem Betrage nach wesentlich gr¨oßer als die ¨ ubrigen Elemente aij (i = j) von A. Schreibweise: ∀i = j : |aii | ≫ |aij |. Man sagt: Das LGS A · x = b ist diagonal dominant“. ” Beispiel 7x1 + 2x2 − x3 = 4 x1 + 10x2 + x3 = 1 (14.10) x1 + x2 − 13x3 = 1 bzw. in Matrizenschreibweise: ⎛ ⎛ ⎞ ⎞ 7 2 −1 4 ⎝ 1 10 1⎠·x=⎝1⎠ 1 1 −13 1
(14.11)
Um unser Iterationsverfahren x0 gegeben, xm+1 := f (xm ) , m ∈ N0
(14.12)
aus dem Banachschen Fixpunktsatz anwenden zu k¨onnen, haben wir unser LGS in eine gewisse Form x = f (x) zu u uhren. Beim Jacobi-Verfahren ¨berf¨ geschieht dies dadurch, daß man die i-te Gleichung des LGS (14.1) nach der ost. i-ten Variablen xi (i = 1, 2, . . . , n) aufl¨ Im obigen Beispiel erhalten wir auf diese Weise x1 = x2 = x3 =
4 7 1 10 −1 13
− +
1 10 1 13
bzw. in Matrizenschreibweise ⎛ 4 ⎞ ⎜ x=⎝
7 1 10 −1 13
· x1 · x1 ⎛
⎟ ⎜ ⎠+⎝
−
2 7
· x2 + − 1 + 13 · x2 0 −1 10 1 13
−2 7
0 1 13
1 7 −1 10
0
1 7 · x3 1 10 · x3
⎞
⎟ ⎠ · x.
Im allgemeinen Fall l¨ aßt sich das Ergebnis dieser Umformung in Matrizenform wie folgt beschreiben: ⎛ b1 ⎞ ⎛ ⎞ −a12 1n . . . −a 0 a11 a11 ⎜ b2 ⎟ ⎜ −a21 a11 2n ⎟ ⎜ a22 ⎟ ⎜ 0 . . . −a a22 ⎟ · x. ⎟ + ⎜ a22 (14.13) x=⎜ . ⎜ . ⎟ ⎝ ..................... ⎟ ⎠ ⎝ . ⎠ −an1 −an2 bn 0 ann ann . . . ann
Mit Hilfe von (14.12) ergibt sich hieraus das folgende Verfahren.
402
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Sei x0 := (
b1 b2 bn T , ,..., ) a11 a22 ann
(14.14)
oder x0 irgendwie gew¨ ahlt. Als N¨ aherungen f¨ ur die L¨osung x des LGS (14.1) erh¨ alt man dann f¨ ur m ∈ N0 : ⎛ b1 ⎞ ⎛ ⎞ −a12 1n 0 . . . −a a11 a11 a11 ⎜ b2 ⎟ ⎜ −a21 2n ⎟ ⎜ a22 ⎟ ⎜ 0 . . . −a a22 a22 ⎟ · x . ⎟ + xm+1 := ⎜ (14.15) ⎜ m ⎜ .. ⎟ ⎝ . . . . . . . . . . . . . . . . . . . . . ⎟ ⎠ ⎝ . ⎠ −an1 −an2 bn 0 ann ann . . . ann
Ohne vollst¨ andige Verwendung der Matrizenschreibweise l¨aßt sich dieses Verfahren auch wie folgt aufschreiben. Jacobi-Verfahren: x0 (gegebene N¨ aherung f¨ ur x, z.B. (14.14)) m = 0, 1, 2, . . . (Nummern der Schritte) i = 1, 2, . . . , n (Nummern der Komponenten) (m) (m) (m) xm := (x1 , x2 , . . . , xn )T n aik (m) bi (m+1) − · xk := xi aii aii k=1,k=i
Beispiel F¨ ur das LGS (14.1) erhalten wir das folgende Iterationsverfahren zur Berechnung der L¨ osung: x0 := (m+1)
x1 = (m+1) x2 = (m+1) x3 =
4 7 1 10 −1 13
− +
1 10 1 13
· ·
4 1 −1 , , 7 10 13
(m) x1 (m) x1
T (m)
−
2 7
· x2
+
1 13
· x2
(m)
+ −
(m) 1 7 · x3 (m) 1 10 · x3
wobei m = 0, 1, 2, . . .. Die ersten N¨ aherungen (auf 5 Stellen nach dem Punkt genau angegeben) der L¨ osung des LGS sind dann: x0 x1 x2 x3 x4 x5 x6
= = = = = = =
(0.57143, 0.10000, −0.07692), (0.53187, 0.05055, −0.02527), (0.55338, 0.04934, −0.03212), (0.55274, 0.04787, −0.03056), (0.55338, 0.04778, −0.03072), (0.55339, 0.04773, −0.03068), (0.55341, 0.04773, −0.03068), .. ..
14.4 Elementare Iterationsverfahren
403
Zum Vergleich: Die exakte L¨ osung des LGS (14.10) lautet: 487 42 −27 , , xT = = (0.55340909 . . . , 0.0477272 . . . , −0.03068181 . . .). 880 880 880 Konvergenzbedingungen f¨ ur das Jacobi-Verfahren u ¨berlegen wir uns im Abschnitt 14.4.3. Zun¨ achst wollen wir jedoch das Jacobi-Verfahren etwas verbessern. 14.4.2 Das Gauß-Seidel-Verfahren (m+1)
nach dem Jacobi-Verfahren berechnet, so liegt es nahe, diese Hat man x1 (m) bereits bekannte N¨ aherung anstelle von x1 in die weitere Rechnung ein(m+1) zubeziehen. Allgemein kann man dann bei der Berechnung von xi (i = (m+1) (m+1) verwenden. Ein 2, 3, . . . , n) die schon bekannten Werte x1 , . . . , xi−1 solches abge¨ andertes Jacobi-Verfahren nennt man Gauß-Seidel-Verfahren.2 Beispiel F¨ ur (14.10) ergibt sich x0 := (0, 0, 0)T , (m+1)
= x1 (m+1) x2 = (m+1) x3 =
4 7 1 10 −1 13
− +
1 10 1 13
(m+1)
−
· x1 (m+1) · x1 +
2 7 1 13
(m)
· x2
(m+1)
· x2
+ −
(m) 1 7 · x3 (m) 1 10 · x3
,
wobei m = 0, 1, 2, . . .. Als erste N¨ aherungen (auf 10 Stellen nach dem Punkt genau angegeben) erhalten wir in diesem Fall: x0 x1 x2 x3 x4 x5 x6 x7
= = = = = = = =
(0.0000000000, 0.0000000000, 0.0000000000), (0.5714285714, 0.0428571429, −0.0296703297), (0.5549450549, 0.0474725275, −0.0305832629), (0.5534959546, 0.0477087308, −0.0306765627), (0.5534151394, 0.0477261423, −0.0306814399), (0.5534094679, 0.0477271972, −0.0306817950), (0.5534091158, 0.0477272679, −0.0306818166), (0.5534090925, 0.0477272724, −0.0306818181), .. ..
Allgemein l¨ aßt sich dieses Verfahren wie folgt beschreiben: 2
Carl Friedrich Gauß (1777–1855); Philipp Ludwig von Seidel (1821–1896). Seidel bewies 1874 die Konvergenz des Gauß-Seidel-Verfahrens.
404
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Gauß-Seidel-Verfahren: x0 (gegebene N¨ aherung f¨ ur x, z.B. x0 = o) m = 0, 1, 2, . . . (Nummern der Schritte) i = 1, 2, . . . , n (Nummern der Komponenten) (m) (m) (m) xm := (x1 , x2 , . . . , xn )T i−1 n aik (m+1) aik (m) bi (m+1) − · xk − · xk := xi aii aii aii k=1
k=i+1
F¨ ur den n¨ achsten Abschnitt ben¨ otigen wir noch eine Matrizendarstellung des Gauß-Seidel-Verfahrens. Seien ⎛ ⎞ 0 0 0 ... 0 0 ⎜ −a21 0 0 ... 0 0⎟ ⎜ a22 ⎟ ⎜ −a31 ⎟ −a 32 ⎜ a ⎟ 0 . . . 0 0 a33 33 ⎟ L := ⎜ ⎜ .......................................... ⎟, ⎜ ⎟ ⎜ −an−1,1 −an−1,2 −an−1,3 . . . 0 0⎟ ⎝ an−1,n−1 an−1,n−1 an−1,n−1 ⎠ −an1 ann
⎛
und
0
−an2 ann
−a12 a11
−an3 ann
−a13 a11 −a23 a22
...
...
−a1,n−1 a11 −a2,n−1 a22
−an,n−1 ann −a1n a11 −a2n a22
⎜ ... ⎜0 0 ⎜ R := ⎜ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⎜ −an−1,n ⎝0 0 0 ... 0 an−1,n−1 0 0 0 ... 0 0 ⎛
b1 a11 b2 a22
⎞
0
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
⎜ ⎟ ⎜ ⎟ ⎜ c := ⎜ . ⎟ ⎟. ⎝ .. ⎠ bn ann
Mit Hilfe dieser Bezeichnungen l¨ aßt sich die Iterationsvorschrift des GaußSeidel-Verfahrens auch wie folgt aufschreiben: xm+1 = c + L · xm+1 + R · xm . Da diese Gleichung nicht zum Rechnen geeignet ist, l¨osen wir sie nach xm+1 auf und erhalten: xm+1 = (E − L)−1 · c + (E − L)−1 · R · xm ,
(14.16)
womit wir durch Wahl von f (x) := (E − L)−1 · c + (E − L)−1 · R · x
(14.17)
das Gauß-Seidel-Verfahren auch aus dem Banachschen Fixpunktsatz h¨atten herleiten k¨ onnen.
14.4 Elementare Iterationsverfahren
405
14.4.3 Konvergenzbedingungen Unsere obigen Iterationsverfahren zum L¨ osen von LGS entstanden aus Gleichungen der Form x = c + B · x, wie man den Gleichungen (14.13) und (14.15) f¨ ur das Jacobi-Verfahren sowie den Gleichungen (14.16) und (14.17) f¨ ur das Gauß-Seidel-Verfahren entnehmen kann. Aussagen u ¨ber die Konvergenz dieser Verfahren folgen demnach aus: Satz 14.4.3.1 Sei f (x) := c + B · x, wobei x, c ∈ Rn×1 und B ∈ Rn×n . Das Iterationsverfahren x0 gegeben, (14.18) xm+1 := f (xm ), m ∈ N0 konvergiert, falls "B" < 1 ist. Beweis.
F¨ ur beliebig gew¨ ahlte x1 und x2 aus Rn×1 gilt:
"f (x1 ) − f (x2 )" = "c + B · x1 − c − B · x2 " = "B · (x1 − x2 )" ≤ "B" · "x1 − x2 ". Mit Hilfe des Banachschen Fixpunktsatz ergibt sich hieraus unsere Behauptung. Im allgemeinen ist es nicht schwierig, "B"∞ oder "B"1 f¨ ur das JacobiVerfahren zu ermitteln. Beispiel F¨ ur das LGS 7x1 + x2 + 3x3 = 1 2x1 + 3x2 + x3 = 0 −x1 + 2x2 + 4x3 = 0 haben wir
⎞ 0 − 71 − 37 0 − 13 ⎠ . B := ⎝ − 32 2 1 0 4 −4 ⎛
Mit Hilfe der S¨ atze 14.2.3 und 14.2.4 erh¨ alt man dann: "B"∞ = 1 und "B"1 = 11 . 12 F¨ ur das Gauß-Seidel-Verfahren mit B = (E − L)−1 · R ist es viel zu aufwendig, erst B und dann "B" zu berechnen. G¨ unstiger ist das folgende Absch¨ atzungsverfahren f¨ ur die Maximumnorm.
406
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Satz 14.4.3.2 Seien n a1j α1 := a11 , j=2 und
n akj akj ∀ k ∈ {2, 3, . . . , n} : αk := akk · αj + akk j=1 k−1
j=k+1
α := max αk .
(14.20)
"(E − L)−1 · R"∞ ≤ α.
(14.21)
1≤k≤n
Dann gilt Beweis.
Seien
(14.19)
B := (E − L)−1 · R, y := B · x
(14.22)
und yT := (y1 , y2 , . . . , yn ). Zum Beweis haben wir zu zeigen, daß "y"∞ = "B · x"∞ ≤ α · "x"∞ f¨ ur alle x ∈ Rn×1 gilt. Durch Umformungen von (14.22) erh¨ alt man die Gleichung y := L · y + R · x, aus der sich f¨ ur k ∈ {1, 2, . . . , n} ⎞ ⎛ n k−1 akj a kj · yj + · xj ⎠ yk = − ⎝ a a kk kk j=1 j=k+1
und hieraus die Absch¨ atzung
k−1
n akj akj |yk | ≤ akk · |yj | + akk · |xj | j=1
(14.23)
j=k+1
ergibt. Speziell f¨ ur k = 1 folgt aus (14.23) ⎞ ⎛ n n a1j a1j ⎠ max |xj |) . ⎝ |y1 | ≤ a22 · |xj | ≤ a11 · (1≤j≤n j=2 j=2 = "x" ∞ = α1
Angenommen, f¨ ur k ∈ {2, . . . , i − 1} gelten analoge Absch¨atzungen |yk | ≤ αk · "x"∞ .
(14.24)
14.5 Projektionsverfahren
407
Wir zeigen, daß (14.24) dann auch f¨ ur k = i richtig ist. i−1 aij n aij |yi | ≤ j=1 aii · |yj | + j=i+1 aii · |xj | i−1 aij aij n ≤ j=i+1 aii · "x"∞ = αi · "x"∞ . j=1 aii · αj · "x"∞ +
Folglich gilt (14.24) f¨ ur jedes i ∈ {1, 2, . . . , n}, und wir k¨onnen "y"∞ durch "y"∞ ≤ ( max αi ) · "x"∞ 1≤i≤n
.
absch¨ atzen, woraus (14.21) folgt.
14.5 Projektionsverfahren In diesem Abschnitt sei unser Vektorraum Rn×1 erg¨ .anzt durch ein Skalarprodukt ϕ und die Norm sei stets in der Form "x" := ϕ(x, x) gew¨ahlt. Nachfolgend sollen drei sogenannte Projektionsverfahren zum iterativen L¨osen des LGS (14.1) vorgestellt werden. 14.5.1 Grundidee der Projektionsverfahren Die Grundidee der Projektionsverfahren l¨ aßt sich einfach geometrisch veranschaulichen (siehe Abbildung 14.1). Der Einfachheit halber deuten wir aherungen xm als Punkte in einem nuns dabei die L¨ osung x∗ sowie ihre N¨ dimensionalen Raum (bzw. wir deuten x∗ und xm als Ortsvektoren gewisser Punkte). Angenommen, wir haben bereits eine N¨aherung xm f¨ ur die L¨osung x∗ ermittelt. Wir suchen eine neue N¨ aherung xm+1 , die einen geringeren Abstand als xm zu x∗ hat, d.h., f¨ ur die "xm+1 − x∗ " < "xm − x∗ " angs einer Geraden, die durch xm geht und den gilt. Geht man nun von xm l¨ (gegebenen) Richtungsvektor pm+1 hat, so ist ein Punkt xm+1 dieser Geraden, f¨ ur den (14.25) ϕ(xm+1 − x∗ , pm+1 ) = 0 und
ϕ(xm − x∗ , pm+1 ) = 0
gilt, sicher dichter an x∗ als xm . (Man u ¨ berlege sich dazu, daß der Satz des Pythagoras auch in allgemeinen Vektorr¨ aumen mit Skalarprodukt gilt!). x∗p p p -? + xm xm+1 pm+1 Abb. 14.1
408
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Rechnerisch erh¨ alt man xm+1 wie folgt: Offenbar gilt f¨ ur einen gewissen Faktor µ ∈ R die Gleichung xm+1 − x∗ = xm − x∗ − µ · pm+1 ,
(14.26)
aus der man durch Bildung des Skalarproduktes mit dem Vektor pm+1 unter Beachtung von (14.25) den Faktor µ berechnen kann, der wiederum in (14.26) eingesetzt die folgende Berechnungsvorschrift f¨ ur xm+1 liefert: xm+1 = xm − µ · pm+1 = xm −
ϕ(xm − x∗ , pm+1 ) · pm+1 . "pm+1 "2
(14.27)
Eine auf diese Weise mit Hilfe von gewissen Projektionsvektoren p1 , p2 , p3 , . . . konstruierte Folge x0 , x1 , x2 , . . . konvergiert offensichtlich gegen x∗ , da nach Konstruktion die Folge ("xm − x∗ ")m∈N0 eine streng monoton fallende Nullfolge bildet. Es gilt sogar: Satz 14.5.1.1 Verwendet man zyklisch t Projektionsvektoren p1 , p2 , . . . , pt (d.h., f¨ ur die Folge (p1 , p2 , p3 , . . .) gilt: pi = pj :⇐⇒ i = j (mod t)), so konvergiert die Folge ⎧ ⎨ x0 gegeben; ϕ(xm − x∗ , pm+1 ) · pm+1 , m ∈ N0 ⎩ xm+1 := xm − "pm+1 "2 f¨ ur einen beliebig gegebenen Vektor x0 gegen einen Vektor x′ mit der Eigenschaft: ∀i ∈ {1, 2, . . . , t} : ϕ(x′ − x∗ , pi ) = 0.
Enth¨alt die Menge {p1 , p2 , . . . , pt } n linear unabh¨angige Vektoren, so ist x′ = x∗ die gesuchte L¨osung von A · x = b.
Beweis.
Siehe [Kie-M 74], 61–63.
Um ein Projektionsverfahren praktisch durchf¨ uhren zu k¨onnen, muß nat¨ urlich ϕ(xm − x∗ , pm+1 ) ohne Kenntnis von x∗ berechenbar sein. Dies gelingt durch •
geeignete Wahl der Projektionsvektoren und durch
•
Verwendung geeigneter Skalarprodukte.
Die nachfolgenden Abschnitte bringen dazu jeweils ein Beispiel.
14.5 Projektionsverfahren
409
14.5.2 Projektion auf Hyperebenen Als Skalarprodukt w¨ ahlen wir das Standardskalarprodukt ϕ(x, y) := xT · y. Jede Gleichung ak1 · x1 + ak2 · x2 + . . . + akn · xn = bk
(14.28)
k ∈ {1, 2, . . . , n} des LGS A · x = b beschreibt eine Hyperebene des n-dimensionalen euklidischen Raumes Rn , da (ak1 , ..., akn ) = oT wegen |A| = 0. Bekanntlich kann (14.28) auch in einer Hesseschen Form (x − c)T · e = o dargestellt werden, wobei c die Koordinatendarstellung eines festen Punktes der Hyperebene und e die Koordinatendarstellung eines auf der Hyperebene senkrechten Vektors, z.B. e = (ak1 , ak2 , . . . , akn )T , ist. Wir w¨ ahlen nun diese zu den Hyperebenen (14.28) orthogonalen Vektoren als Projektionsvektoren: ⎛ ⎞ ak1 ⎜ ak2 ⎟ ⎜ ⎟ pk := ⎜ . ⎟ (k = 1, 2, . . . , n). ⎝ .. ⎠ akn
Dann sind diese Vektoren (wegen der Voraussetzung |A| = 0) linear unabh¨ angig und unser Projektionsverfahren konvergiert (bei zyklischer Anwendung der gegebenen Projektionsvektoren). Da x∗ := (x∗1 , . . . , x∗n )T L¨ osung des LGS (14.1) ist, haben wir außerdem f¨ ur m + 1 = k (mod n) xT∗ · pm+1 = ak1 · x∗1 + ak2 · x∗2 + . . . + akn · x∗n = bk , woraus sich (xm − x∗ )T · pm+1 = xTm · pm+1 − bk ergibt. Zusammengefaßt erhalten wir damit das Verfahren Projektion auf Hyperebenen: aherungsvektor) x0 (gegebener N¨ t = 0, 1, 2, . . . (t Nummer des Zyklus) k = 1, 2, . . . , n (k Nummer des Teilschritts innerhalb eines Zyklus) m + 1 := t · n + k (m + 1 Nummer des Schrittes) pm+1 := (ak1 , ak2 , . . . , akn )T (Projektionsvektor) xT · pm+1 − bk · pm+1 xm+1 := xm − m "pm+1 "2
410
14 Lineare Gleichungssysteme mit genau einer L¨ osung
Die Konvergenz dieses Verfahrens ergibt sich aus Satz 14.5.1.1 und der Voraussetzung |A| = 0. Geometrisch l¨ aßt sich das Verfahren Projektion auf Hy” perebenen“ z.B. f¨ ur n = 2 wie folgt deuten: p1
x∗
q
Abb. 14.2
@ q x1 11 I
a x1 + a12 x2 = b1
q x0
q x2 a21 x1 + a22 x2 = b2 p2 ?
Aus dieser geometrischen Deutung ist bereits ablesbar, daß dieses Verfahren i.allg. langsam konvergiert. Ausgenommen der Fall, wo die Projektionsvektoren orthogonal oder fast“ orthogonal zueinander sind. ” 14.5.3 Gradientenverfahren Nachfolgend sei die Koeffizientenmatrix A unseres LGS (14.1) eine symmetrische und positiv definite Matrix, d.h., es gilt AT = A und ∀ x ∈ Rn×1 \{o} : xT · A · x > 0. (Erf¨ ullt A diese Voraussetzungen nicht, so l¨ aßt sich (14.2) durch Multiplikation uhren, wobei AT · A mit AT in eine Matrixgleichung AT · A · x = AT · b u ¨ berf¨ ¨ A.3.17).) symmetrisch und positiv definit ist, was man leicht nachpr¨ uft (UA W¨ ahlt man nun als Skalarprodukt ϕ(x, y) := xT · A · y und als Projektionsvektoren
14.5 Projektionsverfahren
411
p1 := r0 = A · x0 − b p2 := r1 = A · x1 − b .. . pi+1 := ri = A · xi − b .. ., so gilt (wegen der Symmetrie von A) ϕ(xi −x∗ , pi+1 ) = (xi −x∗ )T ·A·(A·xi −b) = (A·xi −A · x∗ )T ·(A·xi −b) = rTi ·ri . =b Damit erhalten wir:
Gradientenverfahren: A (symmetrische, positiv definite Matrix) x0 (gegebener N¨ aherungsvektor) m := 0, 1, 2, 3, . . . (m Nummer des Schrittes) rm := A · xm − b (Restvektor) rT · rm xm+1 := xm − T m · rm rm · A · rm Es sei noch bemerkt, daß man bei jedem Schritt zwei Vektoren, n¨amlich xm und rm , mit der Matrix A zu multiplizieren hat. Man kann eine Multiplikation einsparen, wenn man rm direkt aus rm−1 und A · rm−1 aus dem vorangegangenen Schritt nach der Formel rm = rm−1 −
rTm−1 · rm−1 · (A · rm−1 ) rTm−1 · (A · rm−1 )
(14.29)
¨ berechnet (Beweis: UA). Eine bessere Konvergenz liefert das Verfahren der konjugierten Gradienten, das abschließend erl¨ autert werden soll. Wir beginnen wie beim Gradientenverfahren: p1 := r0 = A · x0 − b, x1 := x0 −
rT0 · r0 · r0 rT0 · A · r0
Beim zweiten Schritt und bei allen folgenden nehmen wir als Projektionsvektoren pm+1 die folgenden Linearkombination: pm+1 = rm − αm · pm , wobei αm sich aus der Forderung ϕ(pm , pm+1 ) = 0
412
14 Lineare Gleichungssysteme mit genau einer L¨ osung
ermitteln l¨ aßt: αm = Folglich gilt: pm+1 = rm −
rTm · A · pm . pTm · A · pm rTm · (A · pm ) · pm . pTm · (A · pm )
Weiter wie gehabt (siehe obige Rechnungen zur Herleitung des Gradientenverfahrens): rT · pm+1 · pm+1 . xm+1 := xm − T m pm+1 · A · pm+1 Zusammengefaßt erhalten wir: Verfahren der konjugierten Gradienten: A (symmetrische, positiv definite Matrix) x0 (gegebener N¨ aherungsvektor) p1 := r0 = A · x0 − b (Projektionsvektor) rT · r0 · r0 x1 := x0 − T 0 r0 · (A · r0 ) m := 1, 2, 3, . . . (m Nummer des Schrittes) · pm rT · (A · pm ) (Restvektor) rm := A · xm − b = rm−1 − T m−1 pm · (A · pm ) T r · (A · pm ) pm+1 = rm − m · pm (Projektionsvektor) pTm · (A · pm ) rT · pm+1 · pm+1 xm+1 := xm − T m pm+1 · (A · pm+1 ) Satz 14.5.3.1 Das Verfahren der konjugierten Gradienten konvergiert und f¨ uhrt bei exakter Rechnung nach h¨ochstens n + 1 Schritten zum L¨osungsvektor x∗ von (14.1). Beweis.
F¨ ur die Restvektoren gilt (siehe [Mae 84], S. 129/130): ∀m ∈ N ∀i ∈ {0, 1, . . . , m − 1} : rTm · ri = 0.
(14.30)
Aus (14.30) ergibt sich ein einfacher Beweis f¨ ur unseren Satz: Falls rm = o f¨ ur ein gewisses m ∈ {0, 1, 2, . . . , n − 1} gilt, sind alle weiteren Restvektoren ebenfalls gleich o und xm ist die L¨osung von (14.1), womit unser Satz bewiesen w¨ are. Wir k¨ onnen also im folgenden annehmen, daß r0 , r1 , . . . , rn−1 alle von o verschieden sind und damit (wegen (14.30)) eine orthonormierte Basis (bez. Standardskalarprodukt) f¨ ur den Vektorraum Rn×1 bilden. Aus dem Spezialfall ∀i ∈ {0, 1, . . . , n − 1} : rTn · ri = 0
(14.31)
14.5 Projektionsverfahren
413
von (14.30) folgt dann rn = o, d.h., das Verfahren der konjugierten Gradienten ist ein direktes Verfahren, denn es f¨ uhrt nach h¨ochstens n + 1 Schritten zur L¨ osung. Es sei noch bemerkt, daß bei Rundungsfehlern das Verfahren der konjugierten Gradienten in der Regel noch keine L¨ osung liefert, so daß man einige weitere Schritte durchzurechnen hat, um die Rundungsfehler auszugleichen. Bei allen Vorz¨ ugen des Verfahrens der konjugierten Gradienten muß beachtet werden, daß der Rechenaufwand f¨ ur jeden Schritt recht groß ist, vor allem bei Gleichungssystemen mit vielen Unbekannten und Koeffizientenmatrizen, die nur wenige Nullen enthalten. Deshalb lohnt sich dieses Verfahren nur bei LGS spezieller Struktur.
15 Interpolation
In diesem kurzen Kapitel werden noch einige weitere Eigenschaften von Polynomen hergeleitet, die man z.B. ben¨ otigt, um numerisch integrieren zu ¨ ist das im n¨achsten Abschnitt k¨ onnen. 1 Ausgangspunkt unserer Uberlegungen erl¨ auterte Problem.
15.1 Einfu ¨hrung Bei der Auswertung von Meßwerten (in der Technik oder Physik) bzw. beim Versuch, komplizierte Funktionen durch einfache n¨aherungsweise zu ersetzen, ist die L¨ osung des folgenden Problems hilfreich. Allgemeines Interpolationsproblem Gegeben: Eine nichtleere Menge A ⊆ R, eine Referenz x0 , x1 , ..., xn ∈ A, d.h., es gilt x0 < x1 < x2 < ... < xn , gewisse Abbildungsswerte f (x0 ), f (x1 ), f (x2 ), ..., f (xn ) ∈ R und gewisse Abbildungen y0 , y1 , y2 , ..., yn von A in R. Gesucht: c0 , c1 , ..., cn ∈ R, so daß die Funktion g(x) :=
n i=0
ci · yi (x)
die Eigenschaft ∀i ∈ {0, 1, 2, ..., n} : g(xi ) = f (xi ) hat. 1
¨ A.15.6. Siehe dazu auch UA
416
15 Interpolation
Satz 15.1.1 Das obige allgemeine Interpolationsproblem ist genau dann f¨ ur beliebige Referenzen x0 , x1 , ..., xn ∈ A und beliebig vorgegebene f (x0 ), f (x1 ), ..., f (xn ) eindeutig l¨osbar, wenn die sogenannte Haarsche Bedingung2 ∀x0 , x1 , ..., xn ∈ A :
erf¨ ullt ist. Beweis.
x0 < x1 < x2 < ... < xn =⇒ y0 (x0 ) y1 (x0 ) ... yn (x0 ) y (x ) y1 (x1 ) ... yn (x1 ) H := 0 1 .......................... y0 (xn ) y1 (xn ) ... yn (xn )
= 0
Wir betrachten das aus n + 1 Gleichungen bestehende LGS ∀k ∈ {0, 1, ..., n} :
n i=0
ci · yi (xk ) = f (xk )
(15.1)
mit den Unbekannten c0 , c1 , ..., cn . Offenbar ist unser Interpolationsproblem mit der Aufgabe identisch, dieses LGS zu l¨ osen. Wie man leicht nachpr¨ uft, ist die Koeffizientendeterminante von (15.1) gleich der Determinante H aus der Haarschen Bedingung. Obiger Satz ist folglich eine Folgerung aus dem Satz 3.1.11. Nach obigem Beweis ist das Interpolationsproblem mit Hilfe der Cramerschen Regel l¨ osbar, was jedoch viel zu aufwendig ist. Im folgenden Abschnitt soll deshalb gezeigt werden, wie man das Interpolationsproblem f¨ ur die Funktionen yi (x) := xi , i = 0, 1, ..., n, ohne Verwendung von Verfahren zum L¨osen von LGS l¨ osen kann.
15.2 Interpolation mit Polynomen In diesem Abschnitt w¨ ahlen wir A = R und setzen y0 (x) := 1, y1 (x) := x, y2 (x) := x2 , ..., yn (x) := xn , n d.h., wir suchen ein Polynom g(x) := i=0 ci ·xi , das an vorgegebenen Stellen xi mit f (xi ) (i = 0, 1, ..., n) u ¨bereinstimmt. Da die Determinante H aus Satz 15.1.1 bei dieser Wahl der yi die Vandermondesche Determinante ist, die – wie im Abschnitt 3.1 gezeigt wurde – wegen der paarweisen Verschiedenheit der xi stets ungleich 0 ist, folgt aus Satz 15.1.1 unmittelbar der 2
Alfr´ed Haar (1885–1933), ungarischen Mathematiker.
15.2 Interpolation mit Polynomen
417
Satz 15.2.1 Das Interpolationsproblem mit Polynomen ist f¨ ur eine beliebige Referenz x0 < x1 < ... < xn und eine beliebig gegebene Funktion f (bzw. beliebig gegebenen Werten f (x0 ), f (x1 ), ..., f (xn )) eindeutig l¨osbar. Eine erste M¨ oglichkeit der konkreten Berechnung von Interpolationspolynomen liefert der folgende Satz. Satz 15.2.2 F¨ ur eine beliebige Referenz x0 < x1 < ... < xn (x0 , ..., xn ∈ R) und beliebige Funktionswerte f (x0 ), f (x1 ), ..., f (xn ) ∈ R erf¨ ullt das sogenannte Lagrangesche Interpolationspolynom g(x) :=
n i=0
f (xi ) · Li (x)
mit den Lagrangekoeffizienten Li (x) :=
(x − x0 ) · (x − x1 ) · ... · (x − xi−1 ) · (x − xi+1 ) · ... · (x − xn ) (xi − x0 ) · (xi − x1 ) · ... · (xi − xi−1 ) · (xi − xi+1 ) · ... · (xi − xn )
die Bedingung ∀i ∈ {0, 1, 2, ..., n} : g(xi ) = f (xi ). Beweis.
Wegen Li (xk ) =
(i, k ∈ {0, 1, ..., n}) gilt
n
i=0
1 f¨ ur i = k, 0 f¨ ur i = k
f (xi ) · Li (xk ) = f (xk ) f¨ ur alle k ∈ {0, 1, ..., n}.
Beispiel F¨ ur n = 2, x0 = 2, x1 = 4, x2 = 7, f (2) = 4, f (4) = 16 und f (7) = 49 erh¨ alt man nach Satz 15.2.2 das folgende Interpolationspolynom: g(x) = 4 ·
(x − 2)(x − 7) (x − 2)(x − 4) (x − 4)(x − 7) + 16 · + 49 · . (2 − 4)(2 − 7) (4 − 2)(4 − 7) (7 − 2)(7 − 4)
Bemerkung Eine Folgerung aus den S¨atzen 15.2.1 und 15.2.2 ist n ¨ A.15.3). L (x) = 1. (Beweis: UA i=0 i
Wie das obige Beispiel zu Satz 15.2.2 bereits zeigte, ist das Lagrangesche Interpolationspolynom zwar leicht aufschreibbar, jedoch f¨ ur konkrete Berechnungen nicht besonders gut geeignet. Man nutzt es deshalb meist nur zu Beweiszwecken. Ohne Beweis findet man nachfolgend noch eine andere Methode zur Berechnung von Interpolationspolynomen kurz erl¨ autert:
418
15 Interpolation
Interpolation nach Newton Bei dieser Methode hat das Interpolationspolynom (das sogenannte Newtonsche Interpolationspolynom) die Gestalt g(x) = α0 + α1 · (x − x0 ) + α2 · (x − x0 ) · (x − x1 ) + ...+ αn · (x − x0 ) · (x − x1 ) · ... · (x − xn−1 ), wobei sich die Koeffizienten α0 , α1 , ..., αn iterativ mit Hilfe der Hilfspolynome gi (x) := αi + αi+1 (x − xi ) + αi+2 (x − xi )(x − xi+1 ) + ...+ αn (x − xi )(x − xi+1 )...(x − xn−1 ), wobei i = 0, 1, ..., n und g0 = g, wie folgt berechnen lassen: α0 = f (x0 ), α1 =
f (x1 )−f (x0 ) x1 −x0
α2 =
g1 (x2 )−g1 (x1 ) x2 −x1
= g1 (x1 ) = g2 (x2 )
... αk+1 =
gk (xk+1 )−gk (xk ) xk+1 −xk
= gk+1 (xk+1 )
... αn = gn (xn ) F¨ ur die Handrechnung kann man folgendes Rechenschema verwenden: x0 x1 x2 .. .
f (x0 ) = α0 f (x1 ) f (x2 ) .. .
xn f (xn )
g1 (x1 ) = α1 g1 (x2 ) .. . g1 (xn )
g2 (x2 ) = α2 .. .. . . g2 (xn ) gn (xn ) = αn
Bezeichnet man die erste Spalte dieses Rechenschemas als Abszisse und setzt g0 (xi ) := f (xi ) (i = 0, 1, ..., n), so steht in der (k + 3)-ten Spalte des obigen Schemas f¨ ur k ≥ 0 in der (i − 1)-ten Zeile: gk+1 (xi ) := d.h., gerechnet wird wie folgt:
gk (xi ) − gk (xk ) , xi − xk
15.2 Interpolation mit Polynomen
419
(linker Nachbar) – (oberstes Element der linken Nachbarspalte) Differenz der entsprechenden Elemente der Abszisse Beispiel
Es sei x0 = 0, x1 = 1, x2 = 2, x3 = 3, x4 = 4, f (0) = 1, f (1) = 1, f (2) = 11, f (3) = 61, f (4) = 205.
Die Koeffizienten des Newtonschen Interpolationspolynoms berechnen sich dann mit Hilfe des obigen Schemas wie folgt: 0 1 1 1 0 2 11 5 5 3 61 20 10 5 4 205 51 17 6 1 Es gilt damit g(x) = 1 + 5x(x − 1) + 5x(x − 1)(x − 2) + x(x − 1)(x − 2)(x − 3) = 1 − x + x2 − x3 + x4 .
Noch eine abschließende Bemerkung (ohne Beweis): Der Wert des Interpolationspolynoms g an der Stelle a ∈ R kann unmittelbar aus den Daten (xi , f (xi )) (i = 0, 1, ..., n) berechnet werden, ohne daß vorher die Koeffizienten von g(x) bestimmt werden m¨ ussen. Der folgende Neville-Algorithmus3 liefert den Wert g(a): P0,0 := f (x0 ) ∀i ∈ {1, 2, ..., n} : Pi,0 := f (xi )
∧
∀k ∈ {1, 2, ..., i} : Pi,k := Pi,k−1 + (a − xi ) ·
Pi,k−1 −Pi−1,k−1 xi −xi−k
g(a) = Pn,n Beispiel
Es sei x0 = 0, x1 = 1, x2 = 2 f (0) = 1, f (1) = 3, f (2) = 7.
Den Wert g(3) erh¨ alt man dann mit Hilfe des Neville-Algorithmus wie folgt: 3
Eric Harold Neville (1889–1961), englischer Mathematiker.
420
15 Interpolation
P0,0 = 1, P1,0 = 3, P2,0 = 7, P1,1 = P1,0 + (3 − 1) ·
P1,0 −P0,0 1−0
=3+2·
3−1 1
= 7,
P2,1 = P2,0 + (3 − 2) ·
P2,0 −P1,0 2−1
=7+1·
7−3 1
= 11,
P2,2 = P2,1 + (3 − 2) ·
P2,1 −P1,1 2−0
= 11 + 1 ·
11−7 2
= 13 = g(3).
Ist n bei dem Interpolationsproblem von oben sehr groß, so ist die Berechnung des Interpolationspolynoms entsprechenden Grades sehr aufwendig. Außerdem f¨ uhrt eine Graderh¨ ohung des interpolierenden Polynoms i.allg. nicht zu einer besseren N¨ aherung f¨ ur die Funktion f . Man verzichtet deshalb oft darauf, Polynome hohen Grades zu verwenden und setzt die Interpolationsfunktion aus Polynomst¨ ucken mit kleinem Grad zusammen. Ausf¨ uhrlich findet ¨ man dies und Verallgemeinerungen der obigen Uberlegungen z.B. in [Sto 99] erl¨ autert.
Teil IV
¨ Ubungsaufgaben
16 ¨ Ubungsaufgaben zum Teil I
16.1 Aufgaben zum Kapitel 1 A.1.1 Sei M eine Menge. Geben Sie umgangssprachliche Formulierungen an, die inhaltlich mit (a) ∃x ∈ M : E ( Es existiert ein x ∈ M mit der Eigenschaft E.“); ” (b) ∀x ∈ M : A ( F¨ ur alle x ∈ M gilt die Aussage A.“) ” u ¨ bereinstimmen. A.1.2 Erl¨ autern Sie anhand eines Beispiels, daß es beim Verwenden der Symbole ∀ und ∃ auf die Reihenfolge dieser Symbole in einer Formel ankommt, d.h., in dem zu findenden Beispiel sind ∀x∃y : A und ∃y∀x : A inhaltlich verschiedene Aussagen u ¨ ber die Elemente x, y ∈ M . A.1.3 Man dr¨ ucke die folgenden S¨ atze mit Hilfe der Zeichen ∀, ∃, ∃!, ¬, ∧, ∨, =⇒ , ⇐⇒ und bekannten weiteren mathematischen Sybolen wie z.B. +, ·, ..., N, ... so weit wie m¨ oglich aus. (a) Zu jedem x und jedem y gibt es ein z mit x + y = z. (b) Kein x ist kleiner als y. (c) Es gibt ein x mit x + y = y f¨ ur alle y. (d) F¨ ur jedes x ist x + y = y + x f¨ ur alle y. (e) Jede ganze Zahl ist gerade oder ungerade. (f) Nicht alle Primzahlen sind ungerade. (g) Zu jeder nat¨ urlichen Zahl gibt es eine gr¨ oßere Primzahl. (h) Die Menge M ⊆ R hat kein gr¨ oßtes Element. (i) Es gilt x + z < y + z, falls x < y und x, y, z beliebige nat¨ urliche Zahlen sind. (j) Aus x ≤ y und y ≤ x folgt x = y und umgekehrt. (k) Es gibt genau eine L¨ osung x ∈ N der Gleichung x2 = 1. (l) F¨ ur das Potenzieren der nat¨ urlichen Zahlen gilt das Kommutativgesetz ab = ba nicht. (m) Jede der Zahlenmengen N0 , Z und Q enth¨ alt 0 oder 1 und −1. Außerdem negiere man die Aussagen (h), (i) und (k). A.1.4 Man beweise, daß die folgenden Aussagen falsch sind: (a) Jede Primzahl ist eine ungerade Zahl. (b) Jede nat¨ urliche Zahl gr¨ oßer als 1 ist Primzahl oder die Summe von zwei Primzahlen.
424
¨ 16 Ubungsaufgaben zum Teil I
A.1.5 Man beweise die folgenden Aussagen f¨ ur nat¨ urliche Zahlen n ∈ N: (a) Wenn n ungerade ist, so ist auch n2 ungerade. (b) Wenn n2 gerade ist, so ist auch n gerade. A.1.6 Man beweise: (a) Wenn p ∈ P, a ∈ N und a ∈ {n · p | n ∈ N}, dann existieren α, β ∈ Z mit α · p + β · a = 1. (b) Wenn eine Primzahl ein Produkt aus zwei ganzen Zahlen teilt, dann teilt sie mindestens einen Faktor dieses Produktes. Hinweise. Zu (a): Siehe auch Satz 2.2.3. Zu (b): Man verwende (a). √ A.1.7 Man beweise: F¨ ur jede Primzahl p ∈ P gilt: p ∈ Q. Hinweise. (1.) F¨ ur p = 2 l¨ aßt sich die Behauptung z.B. durch einen indirekten √ Beweis wie folgt zeigen: Angenommen, 2√∈ Q. Dann existieren gewisse teilerfremde nat¨ urliche Zahlen s und t mit 2 = st . Hieraus ergibt sich die 2 Gleichung 2 · t = s2 . Folglich ist s2 gerade und (wegen A.1.5, (b)) auch s gerade. Es gibt also eine nat¨ urliche Zahl α mit s = 2 · α. Aus s = 2 · α und s2 = 2 · t2 folgt dann die Gleichung 2 · α2 = t2 . Analog zu oben folgt aus der Gleichung 2 · α2 = t2 , daß 2 ein Teiler von t ist. Wir haben damit 2 als Teiler von s und t nachgewiesen, was jedoch unserer Voraussetzung s und t sind √ ” teilerfremd“ widerspricht. Also war die Annahme 2 ∈ Q falsch. (2.) F¨ ur den allgemeinen Beweis verwende man A.1.6, (b). A.1.8 Man beweise durch andige Induktion die folgenden Aussagen: Pn vollst¨ n(n+1) . i = (a) ∀n ∈ N : 2 Pi=1 n n(n+1)(2n+1) 2 (b) ∀n ∈ N : i = . i=1 6 Pn 3 n2 (n+1)2 (c) ∀n ∈ N : Pi=1 i = . 4 2 (d) ∀n ∈ N : Pn i=1 (2i − 1) = n . n n 1 = n+1 . (e) ∀n ∈ N : i(i+1) Pi=1 n n 1 = . (f) ∀n ∈ N : i=1 (3i−1)(3i+2) 2(3n+2) Pn 1−q n+1 i . (g) ∀n ∈ N0 ∀q ∈ R\{1} : i=0 q = 1−q (h) Es sei a0 = 0, a1 = 1 und an+1 = 12 (3an − an−1 ) f¨ ur n ∈ N. Dann gilt n −1 . f¨ ur alle n ∈ N0 : an = 22n−1 (i) Jede nat¨ urliche Zahl n, welche gr¨ oßer als 7 ist, l¨ aßt sich mit geeigneten a, b ∈ N0 in der Form n = 3a + 5b darstellen. (j) n2 − 1 ist f¨ ur ungerade n ≥ 3 durch 8 teilbar. (k) F¨ ur alle n ∈ N ist n3 − n durch 6 teilbar. (l) F¨ ur alle n ∈ N0 ist 11n+2 + 122n+1 durch 133 teilbar. (m) Die Summe der dritten Potenzen dreier aufeinanderfolgender Zahlen aus N0 ist durch 9 teilbar. (n) F¨ ur alle n ∈ N mit n ≥ 5 gilt 2n > n2 . (o) F¨ ur alle n ∈ N mit n ≥ 10 gilt 2n > n3 . (p) F¨ ur alle n ∈ N mit n ≥ 3 gilt: n! > 2n−1 . (q) Sei a > 0 oder −1 < a < 0. Dann gilt: ∀n ∈ N\{1} : (1 + a)n > 1 + n · a
( Bernoullische Ungleichung“) ” „ « Pn n n an−i bi . (r) F¨ ur alle n ∈ N und alle a, b ∈ R gilt: (a + b) = i=0 i
16.1 Aufgaben zum Kapitel 1
425
A.1.9 (Turm von Hanoi) Gegeben seien drei St¨ abe, die senkrecht auf einer Unterlage befestigt sind. Außerdem sind n h¨ olzerne Kreisscheiben mit Bohrungen durch die Mittelpunkte und paarweise verschiedenen Durchmessern gegeben, die auf dem ersten Stab der Gr¨ oße nach gesteckt sind, wobei sich die gr¨ oßte Scheibe unten befindet. Ziel eines Spiels ist es, die n Scheiben auf einen anderen Stab so umzusetzen, daß sie sich in der gleichen Reihenfolge wie auf den ersten Stab befinden. F¨ ur das Umsetzen gelten folgende zwei Regeln: (1) Man darf in jedem Spielschritt immer nur eine Scheibe von einem Stab auf einen anderen Stab legen. (2) Man darf eine gr¨ oßere Scheibe nicht auf eine kleinere Scheibe legen. Wie viele Spielschritte reichen aus, um alle n Scheiben in der genannten Art vom ersten auf einen zweiten Stab (unter Verwendung des dritten Stabs) umzusetzen? Hinweis: Sei u(n) := 2n − 1. Man zeige durch Induktion, daß u(n) (n ∈ N) Einzelbewegungen von Scheiben ausreichen, um alle n Scheiben in der genannten Art vom ersten auf den zweiten Stab umzusetzen. A.1.10 Wo steckt der Fehler im folgenden Beweis“ durch vollst¨ andige Induktion? ” Behauptung: Wenn von n M¨ adchen eines blaue Augen hat, dann haben alle n M¨ adchen blaue Augen (n ∈ N). Beweis“: ” 1. Induktionsanfang: n = 1 richtig (klar!) 2. Induktionsannahme: Die Behauptung sei richtig f¨ ur k ≤ n. 3. Induktionsbehauptung: Die Behauptung ist richtig f¨ ur n + 1. 4. Induktionsbeweis: Wir betrachten n+1 M¨ adchen, von denen eins blau¨ augig augige sein ist und bezeichnen sie mit M1 , M2 , ..., Mn+1 , wobei M1 die Blau¨ soll. Wir betrachten die beiden Mengen {M1 , ..., Mn } und {M1 , ..., Mn−1 , Mn+1 }. Beide enthalten M1 und haben n Elemente, bestehen also laut Induktionsannahme aus lauter blau¨ augigen M¨ adchen. Da jedes der n + 1 M¨ adchen in einer dieser beiden Mengen vorkommt, sind alle n + 1 M¨ adchen blau¨ augig. A.1.11 Man beweise Satz 1.2.3. A.1.12 Man beweise Satz 1.2.5. A.1.13 Man ermittle die Anzahl dn der Diagonalen in einem ebenen n-Eck (n ≥ 4) und beweise die gefundene Formel per Induktion. A.1.14 Man beschreibe die folgenden Mengen durch die Angabe wenigstens einer Eigenschaft E(x) in der Form {x | E(x)}. (a) {7, 35, 14, 42, 28, 21}, (b) {2, 3, 5, 9, 17, 33, 65}, (c) {2, 11, 101, 1001, 10001}, (d) {−12, −7, −2, 3, 8, 13, 18}, (e) {a, bab, bbabb, bbbabbb, bbbbabbbb}, (f) { 14 , 23 , 32 , 14 }, (g) {1, −1}. A.1.15 F¨ ur die Menge aller Dreiecke G seien folgende Teilmengen definiert: A := {x ∈ G | x ist gleichseitiges Dreieck}
B := {x ∈ G | x ist gleichschenkliges Dreieck} C := {x ∈ G | x ist rechtwinkliges Dreieck}
D := {x ∈ G | x ist Dreieck mit wenigstens einem 45◦ -Winkel}
Man stelle die Beziehungen zwischen diesen Mengen durch ein Venn-Diagramm dar!
426
¨ 16 Ubungsaufgaben zum Teil I
A.1.16 Gegeben seien die Mengen A := {1, 2}, B := {1, 2, 3, 4}, C := {2}, D := {1, A, B, C}. Welche der folgenden Beziehungen sind richtig? (a) 4 ∈ B
(b) A ⊂ B
(c) A ∈ D
(d) A ⊂ D (e) 2 ∈ D
(f ) 1 ∈ D
(g) ∅ ∈ C
(h) ∅ ⊂ D
(i) C ∈ B
(j) 1 ⊂ D
(k) {1, B} ⊆ D (l) A ∪ C ⊂ B (m) C ⊂ D (n) C ∈ D (o) {C} ⊂ D A.1.17 Welche der folgenden Mengengleichungen sind f¨ ur beliebige Mengen A, B und C richtig? (a) (A\B)\C = A\(B ∪ C), (b) (A∆B) ∩ C = (A ∩ C)∆(B ∩ C), (c) (A∆B)\C = (A ∪ B)∆(B ∪ C). A.1.18 Seien A, B, C Mengen. Man beweise: (a) (A\B) × C = (A × C)\(B × C); (b) (A ∩ B) × C = (A × C) ∩ (B × C); (c) (A ∪ B) × C = (A × C) ∪ (B × C). A.1.19 Seien A1 , A2 , B1 , B2 Mengen. Man beweise (A1 × B1 ) ∪ (A2 × B2 ) ⊆ (A1 ∪ A2 ) × (B1 ∪ B2 )
(16.1)
und gebe ein Beispiel an, f¨ ur das in (16.1) ⊂ anstelle von ⊆ steht. A.1.20 Seien A, B, C Mengen. Folgt aus A ∪ B = A ∪ C, daß B = C ist? Folgt aus A ∩ B = A ∩ C, daß B = C ist? A.1.21 Ein Meinungsforscher sendet seinem Chef das Ergebnis seiner Umfrage u ¨ ber die Beliebtheit von Bier und Wein: Anzahl der Befragten: 100 Anzahl derer, die Bier trinken: 75 Anzahl derer, die Wein trinken: 68 Anzahl derer, die beides trinken: 42 Warum wurde der Mann entlassen? (Begr¨ undung mittels Mengen!) A.1.22 Man zeige, daß die Mengen {{x1 , y1 }, {x1 }} und {{x2 , y2 }, {x2 }} genau dann gleich sind, wenn x1 = x2 und y1 = y2 gilt. A.1.23 Welche der Eigenschaften Symmetrie, Asymmetrie, Reflexivit¨ at, Antisymmetrie, Transitivit¨ at sind bei den folgenden Relationen vorhanden? (a) R1 := {(x, y) | x ∈ R ∧ y ∈ R ∧ x = y}, (b) R2 := {(X, Y ) | X ⊆ M ∧ Y ⊆ M ∧ Y = M \X} (M bezeichne eine gewisse nichtleere Menge), (c) R3 := {(x, y) | x ∈ R ∧ y ∈ R ∧ x < y} , (d) R4 := {(x, y) | x ∈ N ∧ y ∈ N ∧ x teilt y}, (e) R5 := {(x, y) | x ∈ Z ∧ y ∈ Z ∧ x + y gerade }. A.1.24 Welche Relation R ⊆ A × A (A nichtleere Menge) ist reflexiv, symmetrisch, transitiv und antisymmetrisch? A.1.25 Man gebe auf der Menge A := {1, 2, 3, 4} eine bin¨ are Relation R an, die nicht reflexiv, nicht irreflexiv, jedoch transitiv und symmetrisch ist.
16.1 Aufgaben zum Kapitel 1
427
A.1.26 Man begr¨ unde, wo in dem folgenden Beweis“ der Herleitung der Reflexivit¨ at ” aus der Symmetrie und Transitivit¨ at einer Relation R u ¨ ber der Menge A der Fehler steckt. Behauptung: Jede symmetrische und transitive Relation R ⊆ A × A ist auch reflexiv (d. h., ∀ a ∈ A : aRa). Beweis“: Wir betrachten ein beliebiges a aus A und ein b ∈ A mit aRb. ” Wegen der Symmetrie von R ist dann auch bRa und aus aRb und bRa folgt dann wegen der Transitivit¨ at von R die Beziehung aRa. Daher ist R reflexiv. A.1.27 Sei M die Menge aller Menschen (tot oder lebendig). Seien die Relationen R und S definiert durch: (x, y) ∈ R :⇐⇒ x ist Schwester von y, (x, y) ∈ S :⇐⇒ x ist Vater von y Was bedeuten umgangssprachlich (x, y) ∈ R2S und (x, y) ∈ S2R? A.1.28 Ein Theater verf¨ uge u atzen. Jeder Platz ist durch ¨ ber 27 Reihen zu je 19 Pl¨ seine Reihennummer r und seine Sitznummer s, also das Paar (r, s) eindeutig festgelegt. Seien R := {1, 2, ..., 27} und S := {1, 2, ..., 19}. Demzufolge kann man jede Vorstellung M als Menge der verkauften Pl¨ atze ansehen und es gilt M ⊆ R × S. Man mathematisiere damit folgende Sachverhalte: (a) von jeder Reihe wurde mindestens ein Platz verkauft; (b) die Vorstellung ist ausverkauft; (c) die Menge aller m¨ oglichen Vorstellungen; (d) keine Karte wurde verkauft; (e) wenigstens eine Reihe ist vollst¨ andig besetzt; (f) keine Reihe ist vollst¨ andig besetzt. A.1.29 Seien R, S und T bin¨ are Relationen u ¨ ber A. Man beweise: (a) (R ∪ S)2T = (R2T ) ∪ (S2T ), (b) (R\S)−1 = R−1 \S −1 . A.1.30 Sei A := {1, 3, 4, 5, 7, 8, 9}. Wie hat man x, y ∈ A zu w¨ ahlen, damit R := {(x, 7), (1, 8), (4, 4), (9, 8), (7, 3), (5, 5), (9, 1), (8, 9), (8, 1), (1, 9), (3, 3), (8, 8), (7, 7), (1, 1), (y, y)} ¨ eine Aquivalenzrelation auf A ist? Man gebe außerdem ¨ (a) die Aquivalenzklassen von R, (b) die zu R geh¨ orende Zerlegung Z von A und ¨ (c) die zu den Aquivalenzrelationen Q ⊂ R geh¨ orenden Zerlegungen an! A.1.31 Man gebe die durch die folgenden Zerlegungen Zi (i ∈ {1, 2, 3}) der Menge ¨ R charakterisierten Aquivalenzrelationen Ri an: (a) Z1 := {{x, −x} | x ∈ R}, (b) Z2 := {{y + x | x ∈ R ∧ 0 ≤ x < 1} | y ∈ Z}, (c) Z3 := {{y + x | y ∈ Z} | x ∈ R ∧ 0 ≤ x < 1}. A.1.32 Man gebe Eigenschaften der nachfolgenden Relationen R ⊆ A × A an und ¨ bestimme, falls R eine Aquivalenzrelation ist, die zugeh¨ orige Zerlegung von A. (a) {( (a, b), (c, d) ) ∈ N2 × N2 | a + c = b + d}, (b) {(a, b) ∈ N2 | a · b ist eine gerade Zahl oder a = b}, (c) {(a, b) ∈ N2 | a · b ist eine ungerade Zahl oder a = b}, (d) {(a, b) ∈ N2 | ∃c ∈ N : b = c · a}, (e) {( (a, b), (c, d) ) ∈ N2 × N2 | (a < c ∨ a = c) ∧ b ≤ d}.
428
¨ 16 Ubungsaufgaben zum Teil I
¨ A.1.33 Es seien R und Q Aquivalenzrelationen auf der Menge A. Man beweise, daß ¨ dann R ∩ Q ebenfalls eine Aquivalenzrelation auf A ist und beschreibe die ¨ Aquivalenzklassen von R ∩ Q durch die von R und Q. Ist R ∪ Q auch eine ¨ Aquivalenzrelation auf A? A.1.34 Auf der Menge A := R × R sei die Relation R wie folgt erkl¨ art: (a, b)R(c, d) ⇐⇒ a2 + b2 = c2 + d2 (a, b, c, d ∈ R). ¨ (a) Man zeige, daß R eine Aquivalenzrelation auf A ist. ¨ (b) Wie lauten die Aquivalenzklassen von R? ¨ (c) Man gebe eine geometrische Deutung der Aquivalenzklassen von R an. A.1.35 Man w¨ ahle auf alle Arten zwei der drei Bedingungen reflexiv“, symme” ” trisch“, transitiv“ aus und gebe jeweils ein Beispiel f¨ ur eine Relation an, die ” diese zwei Bedingungen, aber nicht die dritte Bedingung erf¨ ullt. A.1.36 Man zeige, daß die sogenannte Kongruenz modulo n (Bezeichnung: ≡n ) eine ¨ Aquivalenzrelation auf Z ist, die mit der u ¨ blichen Addition und Multiplikation auf Z vertr¨ aglich (kompatibel) ist. ¨ A.1.37 Man bestimme alle Aquivalenzrelationen auf {1, 2, 3, 4}, die mit der folgenden inneren Verkn¨ upfung ◦ auf {1, 2, 3, 4} vertr¨ aglich sind: ◦ 1 2 3 4
1 1 2 3 4
2 2 4 2 4
3 3 2 1 4
4 4 4 4 4
¨ A.1.38 (a) Man gebe alle Aquivalenzrelationen auf der Menge M := {1, 2, 3..., m} f¨ ur m ∈ {2, 3, 4} an. ¨ (b) Bezeichne µ(k) die Anzahl aller Aquivalenzrelationen auf einer k-elementigen Menge (k ∈ N). Nach der von W. Harnau gefundenen Formel kann man µ(k) wie folgt berechnen: µ(k) =
k X i=1
(−1)i
i X t=1
(−1)t
tk . t!(i − t)!
(16.2)
Mit Hilfe von (16.2) berechne man µ(k) f¨ ur k ∈ {2, 3, 4, 5, 6, 7}. ¨ A.1.39 Es seien R und Q Aquivalenzrelationen auf der Menge A. Man beweise: R2Q ¨ ist genau dann eine Aquivalenzrelation, wenn R2Q = Q2R gilt. A.1.40 Bei welchen der folgenden Relationen Ri (i = 1, 2, 3, 4) handelt es sich um eine reflexive, teilweise Ordnung auf der Menge A := {1, 2, 3}? R1 R2 R3 R4
:= {(1, 1), (1, 2), (2, 2)}, := {(1, 1), (1, 2), (2, 2), (2, 3), (3, 3)}, := {(1, 1), (1, 2), (1, 3), (2, 2), (2, 3), (3, 3)}, := {(1, 1), (1, 2), (2, 1), (2, 2), (3, 3)}.
16.1 Aufgaben zum Kapitel 1
429
A.1.41 Welche der folgenden Diagramme sind Hasse-Diagramme einer halbgeordneten Menge?
r r @ @r @ @ r @r
r r @ @r @ @r r @r
r r @ @r @ @r r @r
A.1.42 Auf A ∈ {a, b, c} sei eine reflexive teilweise Ordnung R definiert. Welche M¨ oglichkeiten gibt es dann f¨ ur das zugeh¨ orige Hasse-Diagramm HR dieser Relation, wobei die Knoten (Punkte) dieses Diagramms nicht bezeichnet sein sollen. Man gebe f¨ ur jedes gefundene Diagramm auch ein Beispiel f¨ ur R ⊆ A2 in Relationenschreibweise an. A.1.43 Sei A := R × R. Auf A seien durch (x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 ), (x1 , y1 ) · (x2 , y2 ) := (x1 · x2 − y1 · y2 , x1 · y2 + x2 · y1 ) eine Addition und eine Multiplikation definiert. Man zeige, daß man auf A keine irreflexive Halbordnung < mit den folgenden drei Eigenschaften definieren kann: (a) ∀z ∈ A : z = (0, 0) ∨ z < 0 ∨ (0, 0) < z, (b) ∀z, w ∈ A : (((0, 0) < z ∧ (0, 0) < w) =⇒ ((0, 0) < z · w ∧ (0, 0) < z + w)), (c) ∀z, w ∈ A : ((z < (0, 0) ∧ w < (0, 0)) =⇒ (0, 0) < z · w). A.1.44 Man w¨ ahle auf alle Arten zwei der drei Bedingungen reflexiv“, antisymme” ” trisch“, transitiv“ aus und gebe jeweils ein Beispiel f¨ ur eine Relation an, die ” diese zwei Bedingungen, aber nicht die dritte Bedingung erf¨ ullt. A.1.45 Seien A := {x ∈ R | 0 ≤ x ≤ 1} und f1 : A −→ A, x → sin x,
f2 : A −→ A, x → x2 , √ f3 : A −→ A, x → x.
ur {i, j} ⊂ {1, 2, 3} Durch welche Zuordnungsvorschriften sind dann fi 2fj f¨ und i = j bestimmt? A.1.46 Man untersuche, ob die angegebene Abbildung f injektiv, surjektiv oder bijektiv ist: (a) f : N → N, n → 2n + 1, (b) f : Z → Z, z → −z + 3, (c) f : Q → Q, q → 5q + 9, (d) f : R → R, r → (r − 1)(r − 2)(r − 3). A.1.47 Man gebe eine Abbildung f : N −→ N an, die surjektiv, aber nicht bijektiv ist. A.1.48 Man l¨ ose die folgende Aufgabe f¨ ur die Menge A ∈ {Z, Q}. Es sei c ∈ A und fc die durch fc : A −→ A, x → x + c − x · c definierte Abbildung. F¨ ur welche c ∈ A ist (a) fc surjektiv; (b) fc injektiv?
430
¨ 16 Ubungsaufgaben zum Teil I
A.1.49 Sei f eine Abbildung von A := R × R in B := R × R verm¨ oge (x, y) → (αx + βy, γx + δy), wobei α, β, γ, δ gewisse fest gew¨ ahlte Zahlen aus R sind. Unter welchen Bedingungen f¨ ur α, β, γ, δ ist f eine bijektive Abbildung? Wie lautet in diesem Fall f −1 ? A.1.50 Welche der folgenden Relationen Ri (i ∈ {1, 2, ..., 6}) sind Abbildungen von D(Ri ) ⊆ R in R? (a) R1 := {(x, y) ∈ R2 | y = sin x}, D(R1 ) := R (b) R2 := {(x, y) ∈ R2 | y = tan x}, D(R2 ) := R (c) R3 := {(x, y) ∈ R2 | 0 ≤ x ≤ 1 ∧ y = x21−1 }, D(R3 ) := [0, 1] (d) R4 := {(x, y) ∈ R2 | x > 0 ∧ y = ln x}, D(R4 ) := R+ (e) R5 := {(x, y) ∈ R2 | − 5 ≤ x ≤ 5 ∧ x2 + y 2 = 25}, D(R5 ) = [−5, 5] (f) R6 := {(x, y) ∈ R2 | y + x = 0}, D(R6 ) = R. A.1.51 Sei A eine endliche Menge und sei f : A −→ A eine Abbildung. Man beweise: f ist injektiv ⇐⇒ f ist surjektiv ⇐⇒ f ist bijektiv. A.1.52 Es sei F die Menge der Paare (x, y) ∈ N0 × N0 , die den folgenden Ungleichungen gen¨ ugen: 10x − 2y ≥ 0, 10y − 2x ≥ 0, x + y ≤ 12.
Offenbar ist F eine Korrespondenz aus N0 in N0 und die Elemente (x, y) ∈ F kann man als Koordinaten von Punkten in der x, y-Ebene auffassen. Man gebe (a) eine Skizze f¨ ur F an und bestimme (b) D(F ) und W (F ), (c) F −1 , (d) F 2F . A.1.53 Seien f : A −→ B, g : B −→ C Abbildungen. Man beweise: f, g surjektiv (injektiv) =⇒ f 2g surjektiv (injektiv). A.1.54 Man beweise: Ist M eine unendliche Menge, dann ist auch P(M ) eine unendliche Menge. A.1.55 Man beweise, daß die Intervalle (0, 1) und [0, 1] aus reellen Zahlen gleichm¨ achtig sind. achtig A.1.56 Man beweise: Je zwei der Mengen N, N0 , N × N, N × Z sind gleichm¨ (und damit abz¨ ahlbar). ur alle i ∈ N abz¨ ahlbare Mengen. Man beweise, daß dann auch A.1.57 S Seien Ai f¨ ∞ A eine abz¨ a hlbare Menge ist. i i=1 A.1.58 Man beweise: Die Menge F := {(a1 , a2 , a3 , ..., ai , ...) | ∀i ∈ N : ai ∈ {0, 1}} (Menge aller Folgen, deren Folgeglieder 0 oder 1 sind) ist nicht abz¨ ahlbar. (Bemerkung: (a1 , a2 , ..., ai , ...) = (b1 , b2 , ..., bi , ...) :⇐⇒ ∀i ∈ N : ai = bi ) A.1.59 Sei F wie in A.1.58 definiert. Man zeige, daß die Menge F × F zu F gleichm¨ achtig ist. A.1.60 Sei F wie in A.1.58 definiert. Man zeige, daß F sowohl zu P(N) als auch zu P(Z) gleichm¨ achtig ist.
16.1 Aufgaben zum Kapitel 1
431
A.1.61 Sei F wie in A.1.58 definiert und bezeichne F ⋆ die Menge derjenigen Tupel aus F , die keine 1-Perode besitzen, d.h., f¨ ur kein (a1 , a2 , a3 , ...) ∈ F ⋆ existiert ein k ∈ N, so daß ak+1 = ak+2 = .... = 1 ist. Man beweise, daß F und F ⋆ gleichm¨ achtig sind. A.1.62 Man beweise, daß die Menge M aller reellen Zahlen x mit 0 < x < 1 zur Menge F (siehe A.1.58) gleichm¨ achtig ist. A.1.63 Man beweise, daß R zur Menge P(N) gleichm¨ achtig ist. A.1.64 Man u uhre den folgenden Satz in einen aussagenlogischen Term: Sonntags ¨ berf¨ besuchen wir unsere Freunde und, sofern es nicht gerade regnet, machen wir eine Wanderung oder eine Radpartie. A.1.65 Oft sind S¨ atze der Umgangssprache unpr¨ azise oder mehrdeutig, was man meist erst bei der logischen Analyse entdeckt. Man erl¨ autere dies anhand der folgenden zwei Aussagen A1 und A2 . A1 : Unsere Zimmer sind mit Fernseher und Telefon oder Internetanschluß ausgestattet. A2 : Werktags außer samstags verkehrt um 23.20 Uhr entweder ein Zug oder ein Bus von X nach Y . A.1.66 Man entscheide, ob der folgende Schluß korrekt ist, wenn man die Voraussetzungen als Aussagen aufschreibt und nachpr¨ uft, ob die Konjunktion dieser Aussagen die Behauptung impliziert. Falls die Besch¨ aftigten eines Betriebes nicht streiken, so ist eine notwendige und hinreichende Bedingung f¨ ur eine Gehaltserh¨ ohung, daß die Arbeitsstundenzahl erh¨ oht wird. Im Falle einer Gehaltserh¨ ohung wird nicht gestreikt. Falls die Arbeitstundenzahl erh¨ oht wird, so gibt es keine Gehaltserh¨ ohung. Folglich werden die Geh¨ alter nicht erh¨ oht. A.1.67 Ein Polizeibericht enth¨ alt folgende Informationen u ¨ ber einen Einbruchs: Der/Die T¨ ater ist/sind mit Sicherheit unter den drei Personen A, B, C zu finden. Wenn A und B nicht beide zugleich am Einbruch beteiligt waren, scheidet C als T¨ ater aus. Ist B schuldig oder C unschuldig, so kommt A als T¨ ater nicht in Frage. Wer hat den Einbruch begangen? A.1.68 Man u uhre den folgenden Satz in einen aussagenlogischen Term und un¨ berf¨ tersuche, unter welchen Umst¨ anden das Verhalten eines Teilnehmers an der Klausur nach dieser Formulierung korrekt ist: A: Zugelassene Hilfsmittel bei der Klausur sind Vorlesungsmitschriften oder das Buch zur Vorlesung. A.1.69 Gegeben seien die Aussagen A1 : A2 : A3 : A4 : A5 : A6 :
Die Sonne scheint. Ein Auftrag liegt vor. Miss Peel ¨ ubt Karate. Miss Peel besucht Mr. Steed. Mr. Steed spielt Golf. Mr. Steed luncht mit Miss Peel.
Mit Hilfe der Aussagen A1 , ..., A5 und Aussagenverbindungen stelle man die folgenden Aussagen dar. A: Wenn die Sonne scheint, spielt Mr. Steed Golf.
432
¨ 16 Ubungsaufgaben zum Teil I
B: Wenn die Sonne nicht scheint und kein Auftrag vorliegt, luncht Mr. Steed mit Miss Peel. C: Entweder ¨ ubt Miss Peel Karate oder sie besucht Mr. Steed. D: Miss Peel ¨ ubt Karate genau dann, wenn Mr. Steed Golf spielt – oder ein Auftrag liegt vor. E: Entweder scheint die Sonne und Mr. Steed spielt Golf – oder Miss Peel besucht Mr. Steed und dieser luncht mit ihr. F : Es trifft nicht zu, daß Miss Peel Mr. Steed besucht, wenn ein Auftrag vorliegt. G: Nur dann, wenn kein Auftrag vorliegt, luncht Mr. Steed mit Miss Peel. ¨ A.1.70 Man gebe f¨ ur jede der folgenden Aquivalenzen eine sprachliche (verbale) Interpretation an! (a) (x ∧ x) ⇐⇒ x, (b) (¬¬x) ⇐⇒ x, (c) (¬(x ∧ y)) ⇐⇒ (¬x ∨ ¬y), (d) (¬x ∨ y) ⇐⇒ (x =⇒ y), (e) (x ∧ (x ∨ y)) ⇐⇒ x, (f) ((x =⇒ y) ∧ (y =⇒ x)) ⇐⇒ (x ⇐⇒ y). A.1.71 Die Booleschen Funktionen f bzw. g seien durch f (x, y) := (x ⇒ y) ∧ (x ∨ y) bzw. g(x, y, z) := (x ⇔ z) + y
definiert. (a) Man gebe die Wertetabellen und die disjunktiven Normalformen von f und g an. (b) Wie l¨ aßt sich f nur unter Verwendung der Zeichen ∧ und − darstellen? A.1.72 Man vereinfache mit Hilfe der algebraischen Methode die folgenden Booleschen Terme: (a) t1 (x, y) := ((x ∧ y) ∨ (x ∧ y)) ∨ (x ∨ y), (b) t2 (x, y, z) := ((x ∨ y) ∨ z) ∧ (x ∨ z), (c) t3 (x, y, z) := (x ∧ (y ∧ z)) ∨ (¯ x ∧ (¯ y ∧ z¯)) ∨ ((x ∨ y¯) ∧ (x ∨ z¯)), x ∧ z¯) ∨ (¯ y ∧ u))). (d) t4 (x, y, z, u) := (((x ∧ y) ∨ z¯) ∨ ((¯ A.1.73 Eine Aussage, deren Negation eine Tautologie ist, heißt Kontradiktion. Eine Aussage, die weder eine Tautologie noch eine Kontradiktion ist, nennt man Kontingenz. Man entscheide anhand von Wahrheitstafeln, welche der folgenden Aussagen Tautologien, Kontradiktionen oder Kontingenzen sind. (a) (x =⇒ (y =⇒ z)) ⇐⇒ ((x =⇒ y) =⇒ z), (b) ((x ∧ z) ∨ (y ∧ z)) ⇐⇒ ((x ∧ z) ∧ (y ∨ z)), (c) ((x ∧ y) ∨ (x ∧ y)) ∨ (x ∧ y), (d) (x ∧ x) ∧ ((y ∨ y) =⇒ z), (e) (x =⇒ (y =⇒ z)) =⇒ ((x ∧ y) =⇒ z), (f) (x ∨ x) ∧ ((y ∧ y) =⇒ z). A.1.74 F¨ ur Abstimmungen in einem vierk¨ opfigen Gremium gelten folgende Regeln: Stimmenthaltung unzul¨ assig; die Abstimmung erfolgt dadurch, daß jedes Mitglied des Gremiums einen bei seinem Platz angebrachten Schalter in eine der beiden m¨ oglichen Stellungen Ja“ oder Nein“ bringt. Ein gr¨ unes Licht ” ” leuchtet bei Annahme eines Antrags auf, ein rotes bei Ablehnung. Bei Stimmengleichheit leuchten beide Lichter auf. Man erstelle die disjunktiven Normalformen der beiden Stromf¨ uhrungsfunktionen und vereinfache diese.
16.1 Aufgaben zum Kapitel 1
433
A.1.75 Eine n-stellige Boolesche Funktion f heißt selbstdual (oder autodual), wenn f¨ ur alle x1 , ..., xn ∈ {0, 1} gilt: f (x1 , ..., xn ) = f (x1 , x2 , ..., xn ) Eine n-stellige Boolesche Funktion f heißt linear, wenn es gewisse a0 , a1 , ..., an ∈ {0, 1} gibt, so daß f (x1 , ..., xn ) = a0 + a1 · x1 + a2 · x2 + ... + an · xn (mod 2) f¨ ur alle x1 , ..., xn ∈ {0, 1} gilt. Eine n-stellige Boolesche Funktion f heißt monoton, wenn ∀a1 , ..., an , b1 , ..., bn ∈ {0, 1} : (∀i ∈ {1, 2, ..., n} : ai ≤ bi =⇒ f (a1 , ..., an ) ≤ f (b1 , ..., bn )) gilt. (a) Wie viele selbstduale ein- oder zweistellige Boolesche Funktionen gibt es? (b) Wie viele lineare ein- oder zweistellige Boolesche Funktionen gibt es? (c) Wie viele monotone ein- oder zweistellige Boolesche Funktionen gibt es? (d) Man beweise: Eine lineare n-stellige Boolesche Funktion f mit f (x1 , ..., xn ) = a0 + a1 · x1 + a2 · x2 + ... + an · xn (mod 2) ist genau dann selbstdual, wenn a1 + a2 + ... + an = 1 (mod 2) gilt. (e) Man beweise: Eine lineare, n-stellige Boolesche Funktion f der Form f (x1 , x2 , ..., xn ) := a0 + x1 + x2 + a3 · x3 + ... + an · xn , wobei a0 , a3 , a4 , ..., an ∈ {0, 1}, ist nicht monoton. (f) Welche der folgenden Booleschen Funktionen sind selbstdual, welche Funktionen sind linear und welche Funktionen sind monoton? • f1 (x, y, z) := (x ⇐⇒ y) ⇐⇒ z, • f2 (x, y, z) := (x =⇒ y) =⇒ z, • f3 (x, y, z) := (x ⇐⇒ y) + z, • f4 (x, y, z) := (x + y) ⇐⇒ z, • f5 (x, y, z) := (x ∧ y) ∨ (x ∧ z) ∨ (y ∧ z). A.1.76 Sei M eine nichtleere Menge und R eine reflexive und symmetrische Relation auf M . Man gebe das durch R induzierte zweistelliges Pr¨ adikat P auf M an. Wie u agt sich die Reflexivit¨ at und die Symmetrie von R auf P ? ¨ bertr¨ A.1.77 Es sei A eine Struktur, zu der eine einstellige Operation f : A −→ A, die bijektiv ist, und eine zweistellige Relation R := {(a, a) |a ∈ A} geh¨ ort. Man beschreibe die Eigenschaft f ist bijektiv“ durch eine pr¨ adikatenlogischen ” Formel, die in A wahr ist. ¨ A.1.78 Man beweise, daß f¨ ur beliebige α, β ∈ F ORM die folgenden Aquivalenzen nicht gelten: (a) (∀xk α) ∨ (∀xk β) ≡ ∀xk (α ∨ β), (b) (∃xk α) ∧ (∃xk β) ≡ ∃xk (α ∧ β).
434
¨ 16 Ubungsaufgaben zum Teil I
A.1.79 Bei der Beschreibung der nachfolgenden Formeln aus F ORM sind α, β ∈ F ORM , {x, y, z} ⊆ V ar und das Operationszeichen f wie auch das Pr¨ adikatzeichen P zweistellig. Welche der folgenden Formeln aus F ORM sind dann erf¨ ullbar und welche sind allgemeing¨ ultig? (a) P (x, y) ∧ P (y, x), (b) ∀x ∀y ∀z P (f (f (x, y), z), f (x, f (y, z)), (c) (∀x P (x, z)) =⇒ (∀y (P (y, z)), (d) ¬((¬(∃x α)) =⇒ (∀x(¬α))), (e) ¬((∃x α) ∨ (∀y β)) ⇐⇒ ((∀x ¬α) ∧ (∀y ¬β)) A.1.80 Geplant ist ein Tischtennisturnier mit den 5 Teilnehmern A, B, C, D, E und nur einer Tischtennisplatte. Außerdem soll gelten: (1.) Jeder Teilnehmer spielt gegen jeden anderen genau einmal, (2.) kein Teilnehmer spielt in zwei aufeinanderfolgenden Spielen. Mittels Graphen kl¨ are man, ob ein solches Tischtennisturnier m¨ oglich ist. A.1.81 Man gebe die Menge aller B¨ aume mit der Knotenmenge {1, 2, 3, 4} an und zerlege diese Menge in Klassen bez. Isomorphie, d.h., man entscheide, welche der B¨ aume untereinander isomorph sind. A.1.82 Mit Hilfe der im Abschnitt 1.7 beschriebenen zwei Verfahren ermittle man ein Minimalger¨ ust f¨ ur folgenden Graphen (Zwischenschritte angeben!).
r A A 17 12 18 A11 Ar 7 24 3 r r r r HH A @ A H H @ 10 14 28 25 27 16 @ 8 2 HH 19 77 A 9 H 40 HHr 20 AAr r 23 @ r 26 r 4 @r H HH HH 6 5 H 30 22 80 13 H HHr 15 r r
29
16.2 Aufgaben zum Kapitel 2 A.2.1 Man berechne den gr¨ oßten gemeinsamen Teiler d := a ⊓ b und gewisse ganze Zahlen α, β mit d = α · a + β · b f¨ ur (a) a = 362 und b = 22,
(b) a = 1033 und b = 52,
(c) a = 3584 und b = 498, (d) a = 4823 und b = 975. A.2.2 Welche x ∈ Z erf¨ ullen jeweils eine der folgenden Gleichungen der Form a · x = b (mod n), wobei a, b ∈ Z ? (a) 8 · x = 1 (mod 5), (b) 20 · x = 10 (mod 25), (c) 8 · x = 3 (mod 14),
16.2 Aufgaben zum Kapitel 2
A.2.3
A.2.4
A.2.5 A.2.6
A.2.7
A.2.8
435
(d) 271 · x = 25 (mod 119), (e) 12 · x = 21 (mod 97), (f) 18 · x = 17 (mod 71). F¨ ur eine beliebige nat¨ urliche Zahl n > 1, die keine Primzahl ist, gebe man eine Gleichung der Form a · x = b (mod n) an, die (a) keine L¨ osung, (b) mindestens zwei L¨ osungen hat. Mit Hilfe von Zahlenkongruenzen beweise man: (a) F¨ ur keine nat¨ urliche Zahl n ist die Zahl 6·n+2 das Quadrat einer ganzen Zahl. (b) F¨ ur keine nat¨ urliche Zahl n ist die Zahl 7·n+3 das Quadrat einer ganzen Zahl. (Hinweis zu (a): Man nehme indirekt z 2 = 6 · n + 2 an und betrachte die Restklassen modulo 6.) Seien a, b, α, β ∈ Z, d ∈ N und d = α · a + β · b. Gibt es dann gewisse α′ , β ′ ∈ Z\{α, β} mit d = α′ · a + β ′ · b? Sei H := (H; ◦) eine endliche Halbgruppe. Wie erkent man anhand der Verkn¨ upfungstafel, ob H (a) ein neutrales Element besitzt, (b) ein Nullelement besitzt, (c) zu jedem x ∈ H ein inverses Element existiert, (d) kommutativ ist? Sei G := (G; ◦) eine endliche Gruppe. K¨ onnen in der Verkn¨ upfungstafel von G in einer Zeile (oder Spalte) an verschiedenen Stellen zwei gleiche Elemente stehen? In einer Rindergesellschaft“ von schwarzen und braunen Rindern, die ganz” farbig oder gescheckt sein k¨ onnen, weiß man, daß bei Kreuzungen von zwei Rindern die schwarze Farbe die braune dominiert“ und daß die Ganzfar” bigkeit dominant gegen¨ uber der Scheckung ist. Es gibt also vier m¨ ogliche Rindertypen: (a): schwarz, ganzfarbig, (b): schwarz, gescheckt, (c): braun, ganzfarbig, (d): braun, gescheckt.
Bei Kreuzung eines schwarzen, gescheckten Rindes (b) mit einem braunen, ganzfarbigen Rind (c) ist also ein schwarzes, ganzfarbiges Rind (a) zu erwarten; dies kann man durch b ⋆ c = a symbolisieren. Man stelle f¨ ur die Verkn¨ upfung ⋆ eine Tabelle auf, aus der alle m¨ oglichen Paarungen ablesbar sind und zeige (unter Verwendung des Light-Test), daß ({a, b, c, d}; ⋆) eine kommutative Halbgruppe mit einem Nullelement und einem Einselement ist. A.2.9 Sei H := (Q; ◦), wobei ∀ a, b ∈ Q : a ◦ b := a + b − a · b. Man zeige, daß H eine Halbgruppe ist und bestimme (falls vorhanden) Nullelemente, Einselemente und invertierbare Elemente von H. Ist H eine Gruppe?
436
¨ 16 Ubungsaufgaben zum Teil I
A.2.10 Man zeige durch Best¨ atigung der Gruppenaxiome, daß die Menge M := {x ∈ Q | ∃n ∈ Z : x = 2n } zusammen mit der gew¨ ohnlichen Multiplikation eine kommutative Gruppe bildet, die zu (Z, +) isomorph ist. A.2.11 Sei G die Gruppe der primen Restklassen modulo 14. Man berechne: (a) die Verkn¨ upfungstafel von G, (b) die Ordnungen der Elemente von G, (c) die Untergruppen von G. Gibt es eine Gruppe der Form (Zn ; + (mod n)), die zu G isomorph ist? A.2.12 Sei G die Gruppe der primen Restklassen modulo 20. Man berechne: (a) die Verkn¨ upfungstafel von G, (b) die Ordnungen der Elemente von G, (c) die Untergruppen von G. Gibt es eine Gruppe der Form (Zn ; + (mod n)), die zu G isomorph ist? ur A.2.13 Bezeichne G := (G; ◦) eine Gruppe und seien die Abbildungen f und ga f¨ a ∈ G wie folgt definiert: f : G −→ G, x → x ◦ x,
ga : G −→ G, x → a−1 ◦ x ◦ a. Man beweise: (a) f ist genau dann ein Homomorphismus, wenn ◦ kommutativ ist. (b) ga ist eine isomorphe Abbildung von G auf G. A.2.14 Seien α, β ∈ R. Durch ◦ : R × R −→ R, (x, y) → α · x + β · y ist auf R eine innere Verkn¨ upfung definiert. Wie hat man α, β ∈ R zu w¨ ahlen, damit (a) (R; ◦) eine Halbgruppe, (b) (R; ◦) eine Gruppe ist. A.2.15 Sei M eine nichtleere Menge. Auf der Potenzmenge von M seien außerdem die folgenden zwei Operationen definiert: A∆B := (A ∪ B)\(A ∩ B), A ◦ B := (A ∩ B) ∪ (M \(A ∪ B)) Man zeige, daß (P(M ); ∆) und (P(M ); ◦) kommutative Gruppen sind. A.2.16 Ist e neutrales Element einer vierelementigen Gruppe (G; ◦) mit G := {a, b, c, e}, so ist die Verkn¨ upfungstafel mit der Angabe c ◦ c = b bereits eindeutig bestimmt. Wie lautet demnach die Tafel? A.2.17 Seien H := (H; ◦) und H′ := (H ′ ; ◦′ ) Halbgruppen und f : H −→ H ′ eine homomorphe Abbildung von G auf G′ . Man beweise: (a) Besitzt H das neutrale Element e und H′ das neutrale Element e′ , so gilt f (e) = e′ . (b) Besitzt H das Nullelement o und H′ das Nullelement o′ , so gilt f (o) = o′ .
16.2 Aufgaben zum Kapitel 2
437
(c) Falls e neutrales Element von H und a ∈ H ein invertierbares Element von H, ist f (e) das neutrale Element von H′ und f (a) ein invertierbares Element von H′ . (d) Sind H und H′ endliche Gruppen und ist f bijektiv, so gilt f¨ ur alle a ∈ H: ord f (a) = ord a. A.2.18 Seien Gi := (Gi ; ◦i ) (i = 1, 2, ..., r; r ≥ 2) Gruppen. Die Gruppe G := (G; ◦) mit G := G1 × G2 × ... × Gr und
∀(a1 , a2 , ..., ar ), (b1 , b2 , ..., br ) ∈ G : (a1 , a2 , ..., ar ) ◦ (b1 , b2 , ..., br ) := (a1 ◦1 b1 , a2 ◦2 b2 , ..., ar ◦r br ). heißt dann das direkte Produkt der Gruppen G1 , G2 , ..., Gr , das auch mit G1 × G2 × ... × Gr bezeichnet wird. Bezeichne nachfolgend Zn , n ∈ N, die Restklassengruppe (Zn ; +). (a) Man gebe die Verkn¨ upfungstafel der Gruppe Z2 × Z3 an und zeige, daß die Gruppe Z2 × Z3 zur Gruppe Z6 isomorph ist. (b) Man beweise, daß Z2 × Z2 nicht zu Z4 isomorph ist. (Bemerkung (Nicht als Beweishilfsmittel bei (a) und (b) verwenden!): Zn × Zm ist genau dann zu Zn·m isomorph, wenn n ⊓ m = 1 gilt.) A.2.19 F¨ ur eine nat¨ urliche Zahl n sei P ar(n) := {(a1 , ..., at ) | t ∈ N ∧ {a1 , ..., ar } ⊂ N ∧ a1 ≤ a2 ≤ ... ≤ at ∧ a1 + a2 ... + at = n} (die Menge aller Partitionen der Zahl n). Z.B.: P ar(5) = {(5), (1, 4), (2, 3), (1, 1, 3), (1, 2, 2), (1, 1, 1, 2), (1, 1, 1, 1, 1)}. Der Hauptsatz ¨ uber endliche abelsche Gruppen, der im Band 2 bewiesen wird, besagt: Falls n = pk1 1 · pk2 2 · ... · pkr r (p1 , ..., pr ∈ P paarweise verschieden; k1 , ..., kr ∈ N) ist, so gibt es (bis auf Isomorphie) genau m := |P ar(k1 )| · |P ar(k2 )| · ur ... · |P ar(kr )| verschiedene abelsche Gruppen mit n Elementen. Beispiele f¨ m paarweise nichtisomorphe abelsche Gruppen mit n Elementen lassen sich nach folgendem Rezept bilden: F¨ ur jedes i ∈ {1, 2, ..., r} und eine Partition (a1 , ..., as ) ∈ P ar(ki ) bilde man das direkte Produkt Hi := Zpa1 × Zpa2 × ... × Zpas . i
i
i
Man erh¨ alt r (Hilfs-)Gruppen, aus denen sich die n-elementige Gruppe aßt. H1 × ... × Hr konstruieren l¨ Man bestimme nach diesem Rezept (bis auf Isomorphie) alle abelschen Gruppen mit n = 600 Elementen. A.2.20 Seien « « „ „ 1 2 3 4 1 2 3 4 und s := d := 2 1 4 3 2 3 4 1 Permutationen der Gruppe S4 . Man zeige
438
¨ 16 Ubungsaufgaben zum Teil I G :=< {d, s} >= {e, d, d2 , d3 , s, s2d, s2d2 , s2d3 },
indem man die Verkn¨ upfungstafel dieser Untergruppe der S4 aufstellt. Man bestimme die Ordnungen der Elemente von G. Außerdem gebe man m¨ oglichst viele Untergruppen von G der Ordnung 2 und 4 an. A.2.21 Man beweise: Der Durchschnitt von Untergruppen einer Gruppe G := (G; ◦) ist wieder eine Untergruppe von G. A.2.22 Man charakterisiere die m¨ oglichen homomorphen Abbildungen von der Gruppe G auf eine andere Gruppe G′ durch die Angabe der auf G existierenden Normalteiler f¨ ur (a) G := (S3 ; 2), (b) G := (Z10 ; + (mod 10)), (c) G := (Z12 ; + (mod 12)). A.2.23 Seien d :=
„
1 2 3 ... n − 1 n 2 3 4 ... n 1
«
und s :=
„
1 2 ... n − 1 n n n − 1 ... 2 1
«
.
Die Untergruppe Dn :=< {d, s} >= {d, d2 , ..., dn , s2d, s2d2 , ..., s2dn } von Sn heißt Diedergruppe. Nachfolgend soll diese Gruppe bei der Bestimmung der Anzahl gewisser chemischer Verbindungen benutzt werden. Gegeben sei ein Kohlenstoffring aus n Kohlenstoffatomen (im Beispiel n = 6):
C
C
C
S S
S
C
S S SC
C
Durch Anh¨ angen“ von Wasserstoffatomen (−H) oder Methylgruppen ” (−CH3 ) an die Kohlenstoffatome kann man zahlreiche organische Verbindungen gewinnen. Z.B. H
H
@
C
C
C
S
CH3
H
S S
S
C
S SC
C @
H Benzol
H
@
H
H
CH3 C
C
C
S S S
C
S S SC
C @
H
H
Xylol
H
16.2 Aufgaben zum Kapitel 2
439
Problem: Wie viele chemische Verbindungen kann man durch das oben beschriebene Anh¨ angen“ erhalten? ” Offenbar kann man f¨ ur einen Ring aus n Elementen 2n verschiedene Bilder der oben angegebenen Form zeichnen. Verschiedene Bilder m¨ ussen jedoch nicht immer verschiedene chemische Verbindungen charakterisieren. Z.B. repr¨ asentieren die nachfolgenden zwei Bilder die chemische Verbindung Xylol: CH3
CH3
@
H
C
C
S H
C
S S
S
C
S SC
C @
H
H
H
H
@
H C
C
S S SC CH3
C
S S S
C
H
C @
CH3
Seien a1 , a2 , ..., a2n Bezeichnungen f¨ ur die m¨ oglichen Bilder solcher chemischen Verbindungen und sei A := {a1 , a2 , ..., a2n }. Zwei Bilder ai , aj liefern genau dann die gleiche chemische Verbindung (Bezeichnung: (ai , aj ) ∈ R), wenn es eine Deckbewegung (d.h., eine Kombination aus Drehungen und Spiegelungen) gibt, die das Bild ai in das Bild aj u uhrt. Genauer: ¨ berf¨ (ai , aj ) ∈ R :⇐⇒ ∃ g ∈ Dn : g(ai ) = aj .
¨ Die Relation R ist offenbar eine Aquivalenzrelation auf der Menge A, die die ¨ Menge A in die Aquivalenzklassen Ba := { α ∈ A | ∃g ∈ Dn : g(a) = α }
¨ (a ∈ A) zerlegt. Die Anzahl der verschiedenen Aquivalenzklassen (Bezeichnung: tn ) ist dann offenbar gleich der gesuchten Anzahl der chemischen Verbindungen, die sich nach dem Satz von Burnside auf folgende Weise berechnen l¨ aßt: P P tn := ( g∈Dn ϕg )/|Dn | = ( a∈A |Ua |)/|Dn |,
wobei
ϕg := |{ a ∈ A | g(a) = a }| und Ua := { g ∈ Dn | g(a) = a }. Man berechne (a) t5 (b) t6 mit Hilfe der oben angegebenen Formel. (c) Man beweise den Satz von Burnside. Hinweis: Man beweise die folgenden Aussagen: ur jedes a ∈ A eine Untergruppe von Dn . (1.) Ua ist f¨ (2.) ∀ a ∈ A : |Ba | = |Dn : Ua |. (3.) Ba = BP a′ =⇒ |Ua | = |Ua′ |. (4.) tP n = ( a∈A |U Pa |)/|Dn |. (5.) a∈A |Ua | = g∈Dn ϕg .
440
¨ 16 Ubungsaufgaben zum Teil I
A.2.24 Sei M eine nichtleere Menge. Sind (P(M ); ∆, ∩) und (P(M ); ∆, ∪) Ringe? A.2.25 Sei R := ({o, a, b}; +, ·) ein Ring. Wie viele M¨ oglichkeiten (bis auf Isomorphie) gibt es f¨ ur R? A.2.26 Auf der Menge R × R seien die folgenden Operationen definiert: (x, y) ⊕ (u, v) := (x + u, y + v), (x, y) ⊙ (u, v) := (x · u − y · v, x · v + y · u). Man zeige, daß (R × R; ⊕, ⊙) ein K¨ orper ist. A.2.27 Sei R := (R; +, ·) ein Ring mit der Eigenschaft, daß die Halbgruppe (R; ·) kommutativ ist und ein Einselement 1 besitzt. Außerdem bezeichne E die Menge {x ∈ R | ∃y ∈ R : x · y = 1}. Man beweise: (E; ·) ist eine kommutative Gruppe. A.2.28 Man berechne f¨ ur (a) z1 = 1 − 2 · i und z2 = 3 + 4 · i, (b) z1 = 1 − 2 · i und z2 = 3 + 5 · i die komplexen Zahlen z1 + z2 , z1 − z2 , z1 · z2 , z1 · z2−1 und z14 . A.2.29 F¨ ur die nachfolgend angegebenen komplexen Zahlen berechne man die trigonometrische Darstellung: √ 1 + 3 · i, −3 + 7 · i, −3 − 7 · i, (1 + i)100 .
A.2.30 Man berechne s¨ amtliche komplexen L¨ osungen der Gleichungen: (a) z 2 + z + 1 = 0, (b) z 3 + 1 = 0, (c) z 6 + 64 = 0, (d) z 6 + 729 = 0. A.2.31 Man beweise: ∀a, b, r, s ∈ R ∀n ∈ N : a + b · i = (r + s · i)n =⇒ a2 + b2 = (r 2 + s2 )n . A.2.32 Welche komplexen Zahlen z erf¨ ullen die Gleichung |z|2 + 2 · Re z = 3 ? n A.2.33 Es sei E := {a ∈ C | a = 1} die Menge aller komplexen L¨ osungen der Gleiohnlichen chung xn = 1. Man zeige, daß diese Menge zusammen mit der gew¨ Multiplikation, die f¨ ur komplexe Zahlen definiert ist, eine Gruppe bildet. A.2.34 Man beweise Satz 2.3.5.
17 ¨ Ubungsaufgaben zum Teil II
17.1 Aufgaben zum Kapitel 3 A.3.1 Mit Hilfe der Cramerschen Regel l¨ ose man das folgende LGS u orper ¨ ber dem K¨ R: 5x + 3y = −5 7x − 3y =
2
A.3.2 Mit Hilfe der Cramerschen Regel l¨ ose man das folgende LGS u orper ¨ ber dem K¨ C: 2·i·x + y = −3 + i (1 − i) · x + (4 + 2 · i) · y =
1
ur die folgenden PermutaA.3.3 Berechnen Sie die Inversionszahl I(si ) (i = 1, 2) f¨ tionen: „ « 1 2 3 4 5 6 , (a) s1 := 5 6 3 2 1 4 « „ 1 2 3 4 5 6 7 8 . (b) s2 := 5 8 3 2 7 4 1 6 A.3.4 Man berechne die folgenden Determinanten u orper R: ¨ ber dem K¨ ˛ ˛ ˛ 1 2 0 3˛ ˛ ˛ ˛ ˛ ˛ 10 8 10 ˛ ˛ −1 4 5 2 ˛ ˛ ˛ ˛, ˛ ˛ ˛ (b) ˛ (a) ˛ −11 4 −5 ˛ , ˛ ˛ 1 0 2 4˛ ˛ 10 0 −2 ˛ ˛ 0 1 2 1˛ ˛ ˛ ˛ 1 1 1 0 3˛ ˛ ˛ ˛ −1 −1 1 2 0 ˛ ˛ ˛ (c) ˛˛ 1 0 2 1 −5 ˛˛ , ˛ 0 1 2 1 5˛ ˛ ˛ ˛ 1 2 1 1 0˛
A.3.5 Sei A := |ai,j |n eine Determinante mit
˛ ˛ ˛ ˛ ˛ ˛ (d) ˛˛ ˛ ˛ ˛ ˛
1 0 1 1 0 8
0 −1 −1 1 1 0 1 3 1 1 2 0 0 1 1 4 0 1 3 0 9 13 5 −6
0 0 0 0 0 3
˛ ˛ ˛ ˛ ˛ ˛ ˛. ˛ ˛ ˛ ˛ ˛
442
¨ 17 Ubungsaufgaben zum Teil II ( 1, falls j = n − i + 1, ai,j := 0 sonst,
u orper R. Man berechne A. ¨ ber dem K¨ A.3.6 Wie ¨ andert sich die Determinante |A| f¨ ur die (n, n)-Matrix A := (aij )n,n ∈ Rn×n , wenn man f¨ ur alle i, j die Elemente aij von A durch ti−j · aij (t ∈ R\{0}) ersetzt? A.3.7 Sei 0 1 λ 1 0 C := @ 0 λ 1 A . 0 0 λ
ur n ∈ N an und beweise diese Formel f¨ ur Cn durch vollst¨ andige Man gebe Cn f¨ Induktion u ¨ ber n ≥ 1. A.3.8 Man berechne (a) 1−1 0 2 6 4 @ −2 1 1 A (mit Hilfe von Adjunkten), 0 2 0 (b)
0
B B B B rg B B B B @
(c)
3 3 4 −2 2 1 1
3 3 3 3 −2 5 1 0 −1 6 2 1 −1 7 0 1 −1 15 5 6 −3 12 1 1 2 3 4 5
1
C C C C C, C C C A
0 1T 0 1 0 1 1 0 2 4 0 −1 1 B @ 0 1 1 A ·@ 0 1 1 1 A·B 0 0 @0 1 1 2 3 0 2 0 1 1 0 0
1
C C. A
A.3.9 Man berechne in Abh¨ angigkeit von t ∈ R den Rang der Matrix 1 0 1 2 3 4 5 B1 t t + 1 2t 5 C C ∈ R5×5 . A := B @2 6 8 10 A t2 0 4−t 1 0 0
A.3.10 Man gebe zwei (2,2)-Matrizen A, B u orper (Z5 ; +, ·) an, f¨ ur die ¨ ber dem K¨ A · B = B · A gilt. A.3.11 Man berechne die Determinante von 0 1 a b c d B −b a d −c C C A := B @ −c −d a b A , −d c −b a indem man von der Determinante |A · AT | ausgeht.
17.1 Aufgaben zum Kapitel 3
443
A.3.12 Man beweise: Seien n ungerade, A ∈ Rn×n und A = −AT . Dann gilt |A| = 0. A.3.13 Sei A eine (n, n)-Matrix, die mehr als n2 − n Elemente besitzt, die gleich 0 sind. Man zeige, daß dann die Determinante von A gleich 0 ist. A.3.14 Eine Matrix A heißt symmetrisch, wenn AT = A ist. Eine Matrix A heißt schiefsymmetrisch, wenn AT = −A gilt. Man beweise: Jede (n, n)-Matrix A l¨ aßt sich als Summe einer symmetrischen Matrix As und einer schiefsymmetrischen Matrix At darstellen. A.3.15 Seien A und B (n, n)-Matrizen. Man beweise: (a) Ist A symmetrisch, so ist auch BT · A · B symmetrisch. (b) Ist A schiefsymmetrisch, so ist auch BT · A · B schiefsymmetrisch. A.3.16 Sei A eine regul¨ are Matrix. Man beweise: (A−1 )T = (AT )−1 . A.3.17 Eine Matrix B ∈ Rn×n \{On,n } heißt positiv definit, wenn ∀x ∈ Rn×1 : xT B · x ≥ 0
∧
(xT B · x = 0 ⇐⇒ x = o) gilt. Man zeige, daß f¨ ur eine beliebige regul¨ are Matrix A ∈ Rn×n die Matrix B := AT · A symmetrisch und positiv definit ist. A.3.18 Man berechne mit Hilfe der zwei im Kapitel 3 angegebenen Verfahren die zur Matrix 1 0 1 0 1 3 1 2 1 0 0 0 B3 1 0 2C B 0 3 −2 0 C C C (b) A := B (a) A := B @1 0 1 2A @0 5 0 1A 2 2 2 5 0 1 1 0
inverse Matrix. A.3.19 Zum Verschl¨ usseln einer Nachricht kann man folgendes Verfahren verwenden. Den 26 Buchstaben des Alphabets werden Zahlen von 0 bis 25 zugeordnet: A 19 N 13
B 2 O 12
C 21 P 16
D 0 Q 18
E 4 R 1
F 7 S 25
G 6 T 20
H 9 U 3
I 17 V 22
J 24 W 5
K 11 X 8
L 15 Y 23
M 14 Z 10
Der Klartext (z.B. ALGEBRA) wird in Bl¨ ocke zu je zwei Buchstaben unterteilt, wobei man nach Bedarf eventuell noch einen Buchstaben (etwa X) hinzuf¨ ugt: AL GE BR AX. Jedem Buchstabenpaar entspricht nach der obigen Tabelle ein gewisses Zahlenpaar (a1 , a2 ), dem man mittels « « „ « „ „ a1 4 7 b1 · (mod 26) = 9 22 a2 b2 ein anderes Paar (b1 , b2 ) zuordnen kann, denen wiederum nach obiger Tabelle ein gewisses Buchstabenpaar entspricht. Auf diese Weise l¨ aßt sich Algebra zu SFDOLMBH codieren. (a) Man decodiere SIVNXBMHNOTE. besitzen, damit jede (b) Welche Eigenschaften m¨ ussen Matrizen A ∈ Z2×2 26 T usselt werden durch (b1 , b2 ) = A · (a1 , a2 )T codierte Nachricht entschl¨ kann?
444
¨ 17 Ubungsaufgaben zum Teil II
A.3.20 Bezeichne G einen ungerichteten Graphen mit der Knotenmenge {1, 2, ..., n}. F¨ ur diesen Graphen lassen sich folgende drei Matrizen bilden: B := (bij )n,n ( Adjazenzmatrix von G“), ” ur i = j die Anzahl der Kanten, die den Knoten i mit den Knoten wobei bi,j f¨ j verbinden, bezeichnet, und bii gleich der doppelten Anzahl der mit dem Knoten i inzidierenden Schlingen ist; V := (vi,j )n,n ( Valenzmatrix von G“), ” wobei vij = 0 f¨ ur i = j und vii die Anzahl der Kanten ist, die vom Knoten i ausgehen und Schlingen dabei doppelt gez¨ ahlt werden; A := V − B ( Admittanzmatrix von G“). ” ur beliebiges Dann gilt der Matrix-Ger¨ ust-Satz (Satz von Kirchhoff-Trent) 1 : F¨ i ∈ {1, 2, ..., n} gibt die Adjunkte Aii der Determinante A := |A| die Anzahl der Ger¨ uste des Graphen G an. (Ger¨ uste sind zusammenh¨ angende spannende Teilgraphen von G mit minimaler Kantenzahl.) Man verifiziere diesen Satz f¨ ur den Graphen 4 s
s2 Q Q Q Q Q Q s 3 Qs 1 A.3.21 Jedem schlichten gerichteten Graphen G mit der Knotenmenge {1, 2, ..., n} kann man eine sogenannte Adjazenzmatrix B := (bij )n,n zuordnen, wobei bij die Anzahl der B¨ ogen angibt, die vom Knoten i zum Knoten j gerichtet sind. F¨ ur die Matrix Bk =: (cij )n,n gilt dann, daß cij die Anzahl der gerichteten Kantenfolgen der L¨ ange k vom Knoten i zum Knoten j angibt. Man verifiziere diese Aussage f¨ ur den Graphen 6 r
r 6 4
@ @ @ R r @ 3 6
2
r
- r5
r
1
und k = 3. 1
Den Beweis dieses Satzes wie auch den Beweis der Aussage aus der Aufgabe A.3.21 findet man im Band 2.
17.1 Aufgaben zum Kapitel 3
445
A.3.22 Sei K = R. Man bestimme die allgemeine L¨ osung der folgenden LGS: (a) = 0 x1 − x2 + 4 · x3 x3 + x4 = 7 2 · x1 + x2 −
(b)
x1 + x2 x2 x1 x2 2x1 (c) x1 + x2 2x1 − x2 x2 2x1
− − − +
+ + + − −
x3 x3 x3 x3 x3
+ x4 = 7 + x4 = 5 + x4 = 6 = 2 + x4 = 10
x3 + x4 + x5 + x6 x3 + 2x4 x3 + x6 2x3 + 2x4
= = = =
0 0 0 0
(d) 2x1 + 4x2 + 6x3 − 10x4 = 14 x1 + x2 + x3 − 3x4 = 11 x1 + 3x2 + 5x3 + 5x4 = 123 (e)
(f)
−2x1 + 6x2 − 2x4 + 2x5 2x1 + x3 − x5 4x1 + 5x2 4x1 + 16x2 − x3 − 2x4
+ 3x2 + 5x3 + 3x2 + 2x3 − 2x2 + x3 − 4x2 + x3 − x2 + 3x3 A.3.23 Sei K = R. Man begr¨ unde mit Hilfe x1 x1 x1 x1
x1 + x2 x2 x1 x2 x1 + x2
+ + + + +
= = = =
0 0 0 0
− 4x4 = 1 − 2x4 + x5 = −1 − x4 − x5 = 3 + x4 − x5 = 3 + x4 = 0 des Rangkriteriums, daß das LGS x3 x3 6x3 2x3 8x3
+ x4 = 3 + x4 = 5 = 1 + x4 = 3 + x4 = 4
keine L¨ osungen besitzt. A.3.24 Sei K = R. Welchen Einfluß hat der Wert a ∈ R auf die Struktur der allgemeinen L¨ osung des LGS 7x1 2x1 3x1 −x1
− + − +
3x2 − 5x3 x2 + x3 2x2 − 4x3 2x2
+ + + +
ax4 3x4 2x4 4x4
− − + +
2x5 x5 x5 5x5
= = = =
4 0 2 b
und f¨ ur welche b ∈ R ist dieses LGS bei festem a ∈ R l¨ osbar? F¨ ur den Fall a = 4 gebe man außerdem s¨ amtliche L¨ osungen des LGS an.
446
¨ 17 Ubungsaufgaben zum Teil II
A.3.25 Sei K = R. F¨ ur welche t ∈ R hat 0 1 2 3 B 5 − t2 2 3 B @ 2 3 5 − t2 2 3 4
1 0 4 x1 B 4C C · B x2 1 A @ x3 x4 1
1
0
1 0 C B0C C=B C A @0A 0
nichttriviale L¨ osungen? osungen von A.3.26 Sei K = Z7 . Man berechne die Anzahl der L¨ 1 0 0 0 1 1 x1 1 −1 6 1 0 B x2 C C = @ 4 A. @ 1 2 1 4 A·B @ x3 A 3 4 −6 0 0 x4
17.2 Aufgaben zum Kapitel 4 A.4.1 Man beweise, daß die Menge der L¨ osungen der Matrixgleichung A · x = o (A ∈ K m×n ) einen Untervektorraum des Vektorraums K n×1 bildet. Gilt dies auch f¨ ur die L¨ osungen der Gleichung A · x = b, falls b ∈ K m×1 \{o} ? A.4.2 Welche der folgenden Teilmengen Ti ⊆ R4×1 (i = 1, 2, 3) sind Untervektorr¨ aume von R4×1 ? (a) T1 := {(x1 , x2 , x3 , x4 )T ∈ R4×1 | x2 + x3 − 2x4 = 0}, (b) T2 := {(x1 , x2 , x3 , x4 )T ∈ R4×1 | x1 + x2 = 1},
(c) T3 := {(x1 , x2 , x3 , x4 )T ∈ R4×1 | x1 ∈ Q}. A.4.3 Seien 0 1 0 1 0 0 1 −i −i −1 + 2i 1 B 0 B 0 C C B B1C 2i B C B C B C a1 := B @ 0 A , a2 := @ −1 A , a3 := @ 0 A , a4 := @ 1 0 1+i 2i 1
1 C C A
Vektoren des Vektoraums C4×1 u orper C. Man bestimme die Di¨ ber dem K¨ ur diesen UVR mension des UVRs U := [{a1 , a2 , a3 , a4 }] und gebe eine Basis f¨ an. A.4.4 Seien 0 1 0 1 0 1 0 1 0 1 1 1 0 0 1 B0C B0C B1C B0C B1C B C B C B C B C B C B C B C B C B C C a1 := B B 0 C , a2 := B 1 C , a3 := B 0 C , a4 := B 0 C , a5 := B 1 C @0A @1A @0A @1A @1A 1 1 0 0 1
orper K mit K ∈ {R, Z2 }. Man Vektoren des Vektoraums K 5×1 u ¨ ber dem K¨ bestimme die Dimension des UVRs U := [{a1 , a2 , a3 , a4 , a5 }] und gebe eine Basis f¨ ur diesen UVR an. A.4.5 Mit Hilfe von Vektoren beweise man, daß durch die Verbindung der Mittelpunkte benachbarter Seiten in einem Viereck stets ein Parallelogramm entsteht.
17.2 Aufgaben zum Kapitel 4
447
A.4.6 In einem Vektorraum R V seien die Vektoren a, b, c fixiert. Außerdem seien x := b + c, y := c + a, z := a + b. Man beweise: (a) [{a, b, c}] = [{x, y, z}]. (b) a, b, c sind genau dann linear unabh¨ angig, wenn x, y, z linear unabh¨ angig sind. Sind die Aussagen (a) und (b) auch f¨ ur Vektorr¨ aume u ¨ ber einem beliebigen K¨ orper richtig? angige Vektoren a1 , a2 , a3 geA.4.7 In dem Vektorraum R V seien drei linear unabh¨ geben. F¨ ur welche k ∈ R sind die Vektoren b1 := a2 + a3 − 2a1 , b2 := a3 + a1 − 2a2 , b3 := a1 + a2 − k · a3 linear abh¨ angig? Gibt es einen Vektor a ∈ V , ein k ∈ R und gewisse µi ∈ R ur alle i ∈ {1, 2, 3} ? (i = 1, 2, 3) mit bi = µi · a f¨ A.4.8 Seien a1 , ..., an , b1 , ..., bn ∈ K V , α ∈ K mit α + α = 0 und cj := aj + bj , dj := ur j = 1, ..., n. Man beweise: Sind die Vektoren a1 , ..., an , b1 , ..., bn α·(bj −aj ) f¨ l.u., so auch die Vektoren c1 , ..., cn , d1 , ..., dn . A.4.9 Man verifiziere die Dimensionsformel f¨ ur Untervektorr¨ aume im Fall V = 4×1 und f¨ ur die Untervektorr¨ aume RR U = [{(1, 0, 1, 2)T , (0, 1, 1, 1)T }] und
W = [{(1, 1, 4, 0)T , (2, −3, −1, 1)T , (3, 1, 0, 0)T }]
von V . A.4.10 Seien a, b, c Vektoren des Vektorraums K V und α, β, γ ∈ K. Man beweise, daß α · a − β · b, γ · b − α · c, β · c − γ · a
linear abh¨ angig sind. A.4.11 Die folgenden Mengen sind UVRe des VRs R R4×1 : U
:= [{(1, 0, 1, 2)T , (1, 1, 0, 3)T }],
W := [{(1, −1, 1, 1)T , (4, 0, 1, 1)T }]. Ist U + W eine direkte Summe? angige Vektoren des Vektorraums K V . AußerA.4.12 Seien b1 , b2 , ..., bn linear unabh¨ dem sei a eine Linearkombination dieser Vektoren, d.h., es exstieren gewisse a1 , ..., an ∈ K mit a = a1 · b1 + a2 · b2 + ... + an · bn . Man beweise, daß die ai (i = 1, 2, ..., n) in dieser Darstellung von a durch die Vektoren b1 , b2 , ..., bn eindeutig bestimmt sind. angig Gilt obige Aussage auch, wenn die Vektoren b1 , b2 , ..., bn linear abh¨ sind? A.4.13 Bezeichne V den Vektorraum R4×1 u ¨ber R. (a) Man beweise, daß b1 := (1, 0, 1, 0)T , b2 := (1, 0, 0, 1)T , b3 := (0, 1, 1, 0)T , b4 := (1, 1, 1, 2)T eine Basis B von V bildet.
448
¨ 17 Ubungsaufgaben zum Teil II
uglich der Basis (b) Man gebe die Koordinaten von a := (1, 2, 3, 4)T bez¨ B := (b1 , b2 , b3 , b4 ) an. ¨ (c) Man berechne die Ubergangsmatrix M(B, B ′ ), wobei B ′ die Standardbasis (b′1 , b′2 , b′3 , b′4 ) = ((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T ) von V bezeichnet. A.4.14 Bezeichne V den Vektorraum R4×1 u ¨ ber R. (a) Man beweise, daß b1 = (0, 1, 1, 1)T , b2 = (1, 0, 1, 1)T , b3 = (1, 1, 0, 1)T , b4 = (1, 1, 1, 0)T eine Basis B von V bildet. uglich B := (b) Man berechne die Koordinaten von a := (0, 5, 2, −1)T bez¨ (b1 , b2 , b3 , b4 ). ¨ (c) Man berechne die Ubergangsmatrix M(B, B ′ ), wobei B ′ die Standardbasis (b′1 , b′2 , b′3 , b′4 ) = ((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T ) von V bezeichnet.
17.3 Aufgaben zum Kapitel 5 A.5.1 Bezeichne R3 einen dreidimensionalen affinen Raum u orper Z2 . ¨ ber dem K¨ Wie viele Punkte, Geraden und Ebenen enth¨ alt R3 ? Wie viele Punkte enth¨ alt eine Gerade? Wie viele Punkte und Geraden enth¨ alt eine Ebene? Wie viele parallele Geraden gibt es zu einer gegebenen Geraden? A.5.2 Man bestimme eine parameterfreie Darstellung f¨ ur die 2-Ebene E des 5orper R, die gegeben ist durch: dimensionalen affinen Raumes R5 u ¨ ber dem K¨ E : X = (1; 1, 0, 1, 2, 0)T + r · (0; 1, 0, 1, 1, 1)T + s · (0; 1, 2, 1, 1, 2)T (Koordinatendarstellung bez¨ uglich eines Koordinatensystems S des R5 ). A.5.3 Sei R4 ein 4-dimensionaler affiner Raum u orper R und S ein Ko¨ ber dem K¨ ordinatensystem des R4 . Bez¨ uglich S seien die folgenden Punkte des R4 gegeben: P0 := (1; 3, −4, 1, 6)T , P1 := (1; 3, −2, −10, 0)T , P2 := (1; 2, 0, −3, 2)T und P3 := (1; 1, 2, 4, 4)T . Man bestimme: (a) die Dimension des von den Punkten P0 , P1 , P2 , P3 aufgespannten affinen Unterraums E; (b) den Durchschnitt von E mit der durch die Gleichung 4x1 + x2 + x3 − 2x4 + 6 = 0 gegebenen Hyperebene H. orper K mit dem KoordinatenA.5.4 Es sei Rn ein affiner Punktraum u ¨ ber dem K¨ system S. Eine Hyperfl¨ ache E des Rn ist durch n ihrer Punkte P1 , ..., Pn in allgemeiner Lage eindeutig bestimmt (siehe Satz 5.4.3). Andererseits ist E parameterfrei durch eine Gleichung der Form a1 · x1 + a2 · x2 + ... + an · xn = b ur X ∈ Rn . Man beweise, daß beschreibbar, wobei X/S = (1; x1 , ..., xn )T f¨ man eine E beschreibende Gleichung erhalten kann, indem man ˛ ˛ ˛ x1 x2 ... xn 1 ˛ ˛ ˛ ˛ p11 p12 ... p1n 1 ˛ ˛ ˛ ˛ p21 p22 ... p2n 1 ˛ = 0 ˛ ˛ ˛ .................. ˛ ˛ ˛ ˛ pn1 pn2 ... pnn 1 ˛ bildet, wobei (Pi )/S := (1; pi1 , pi2 , ..., pin )T (i = 1, 2, ..., n).
17.4 Aufgaben zum Kapitel 6
449
A.5.5 Wie k¨ onnen zwei verschiedene 2-Ebenen E und E ′ im (a) R3 , (b) R4 , (c) orper K zueinander gelegen sein? Bei der Fallunterscheidung R5 u ¨ber dem K¨ verwende man: Parallelit¨ at, E ∩ E ′ , E + E ′ . A.5.6 Seien A ∈ K r×n , B ∈ K s×n , b ∈ K r×1 , c ∈ K s×1 und x ∈ K n×1 . Durch die LGS A · x = b und B · x = c seien zwei Unterr¨ aume E und E ′ eines orper K gegeben. Man gen-dimensionalen Punktraumes Rn u ¨ ber dem K¨ be eine notwendige und hinreichende Bedingung f¨ ur die Koeffizienten dieser LGS (beziehungsweise f¨ ur Matrizen an, die aus diesen Koeffizienten gebildet werden k¨ onnen), unter der E und E ′ parallel sind. A.5.7 Seien E und E ′ zwei affine 2-Ebenen im R4 mit E ∩ E ′ = ∅. Man zeige: (a) Gilt dim E ∩ E ′ = 0, so schneidet E jede zu E ′ parallele affine 2-Ebene E ′′ in genau einem Punkt. (b) Gilt dim E ∩ E ′ = 1, so gibt es zu E ′ eine parallele affine 2-Ebene E ′′′ , die E nicht schneidet. A.5.8 Es sei n ∈ N und n ≥ 3. Man zeige, daß f¨ ur jedes q ∈ R s¨ amtliche Punkte des affinen n-dimensionalen Raumes Rn u ¨ber R, deren Summe der Koordinaten gleich q ist, in einer Hyperebene Eq liegen und gebe die Parameterdarstellung f¨ ur Eq an. A.5.9 Es sei R5 := {(1, x1 , ..., x5 )T | x1 , ..., x5 ∈ R} ein affiner Raum u ¨ ber R mit dem zugeh¨ origen Vektorraum V5 := {(0, x1 , ..., x5 )T | x1 , ..., x5 ∈ R} (das Standardbeispiel eines 5-dimensionalen affinen Raumes u ¨ ber R). In diesem Raum sei die Ebene E durch den Punkt A und die Vektoren a1 , a2 ∈ V5 bestimmt und die Ebene E ′ durch den Punkt B und die Vektoren a3 , a4 ∈ V5 . Wie kann man die gegenseitige Lage der Ebenen E und E ′ durch die linearen −→ Abh¨ angigkeiten zwischen den Vektoren a1 , a2 , a3 , a4 , AB ausdr¨ ucken? A.5.10 Seien P, P ′ , Q, Q′ ∈ Rn die Ecken eines Vierecks P P ′ QQ′ . Man beweise: Die Punkte P, P ′ , Q, Q′ bilden genau dann ein Parallelogramm P QQ′ P ′ , wenn sich die Diagonalen in diesem Parallelogramm halbieren, d.h, es gilt −−→ 1 −−→ 1 −−→ − − → − P Q = P ′ Q′ ⇐⇒ P + P Q′ = Q + QP ′ . 2 2 A.5.11 Man zeige: Zu beliebigen k + 1 paarweise verschiedenen Punkten P1 , ..., Pk+1 eines affinen Raumes Rn , die nicht in einem affinen Unterraum einer Dimension ≤ k − 1 liegen, gibt es genau einen Unterraum E der Dimension k, der diese k + 1 Punkte enth¨ alt. Man sagt, E wird von P1 , ..., Pk+1 aufgespannt. Welche Aussagen der Schulgeometrie werden durch obige Aussage verallgemeinert?
17.4 Aufgaben zum Kapitel 6 A.6.1 Seien S := (A; i, j, k) ein Koordinatensystem f¨ ur R3 und B := (i, j, k) orthonormiert. Außerdem seien (in Koordinaten bez. S bzw. B): P := (1; 1, 2, 3)T , Q = (1; 0, 3, −1)T , R := (1; −1, 2, 0)T , h : X := (1; 0, 1, 1)T + t · (0; 1, 1, 1)T , E : x1 + x2 − 2x3 = 4, E ′ : X := (1; 2, 3, 1)T + t1 · (0; 1, 0, 1)T + t2 · (0; 0, 2, 1)T . Man berechne: (a) eine Parameterdarstellung der Geraden g(P, Q);
450
A.6.2 A.6.3
A.6.4
A.6.5
A.6.6
A.6.7
A.6.8 2
¨ 17 Ubungsaufgaben zum Teil II (b) (c) (d) (e) (f) (g) (h) (i) (j)
eine Parameterdarstellung der Ebene ε(P, Q, R); eine Hessesche Form der Ebene ε(P, Q, R); die Hessesche Normalform von E; den Abstand von A zu h; den Abstand von A zu E; zwei Ebenen in Hessescher Form, deren Schnitt die Gerade h ist; den Abstand von g zu h; die Fußpunkte T1 , T2 des Lotes von g auf h(T1 , T2 ) 2 ; eine Parameterdarstellung f¨ ur E;
(k) (l) (m) (n)
einen Vektor aus V 3 , der auf E senkrecht steht; eine Ebene, die durch A geht und auf h senkrecht steht; E ∩ E′; die Koordinaten des Punktes P ∈ ε(P, Q, R) bez. des Koordinaten-
→
−→
−→
systems (R; P Q, P R) f¨ ur die Punkte der Ebene ε; (o) die Parameterdarstellung einer zu E parallelen Ebene, die von E den Abstand 2 hat; (p) den Schnittpunkt von h mit E. Man beweise, daß durch ϕ : Cn×1 × Cn×1 −→ C, ϕ(x, y) := xT · y ein Skalarprodukt des Vektorraums Cn×1 u ¨ ber C definiert ist. Es sei V :=R R3×1 und ϕ die wie folgt definierte Abbildung von V × V in R: ϕ((x1 , x2 , x3 )T , (y1 , y2 , y3 )T ) := 3 · x1 · y1 − x1 · y2 − x2 · y1 + x2 · y2 + 2 · x3 · y3 . Man zeige, daß ϕ ein Skalarprodukt ist und bestimme eine bez¨ uglich dieses Skalarprodukts orthonormierte Basis mit Hilfe des Schmidtschen ONVs, indem man von der Basis a1 := (1, 0, 0)T , a2 := (0, 1, 0)T , a3 := (0, 0, 1)T ausgeht. Man bestimme mit Hilfe des Schmidtschen ONVs eine orthonormierte Basis f¨ ur den Untervektorraum [{a1 , a2 , a3 , a4 }] von R R4×1 , wobei a1 := (2, 1, 3, −1)T , a2 := (7, 4, 3, −3)T , a3 := (1, 1, −6, 0)T , a4 := (5, 7, 7, 8)T . Man beweise: Die durch ein ¨ber K ∈ {R, C}) p Skalarprodukt ϕ (eines VRs V u ullt die sogenannte Parallelodefinierte Norm a := ϕ(a, a) (a ∈ V ) erf¨ grammeigenschaft: ∀a, b ∈ V : a + b2 + a − b2 = 2 · (a2 + b2 ). Außerdem zeige man anhand eines Beispiels, daß die Maximumnorm diese Eigenschaft nicht besitzt. Seien B := (i, j, k) und a/B := (0; 1, 0, 3)T , b/B := (0; 2, −6, 1)T , c/B := (0; −1, 0, 2)T . (a) Welche Orientierung besitzt die Basis (a, b, c)? ¨ (b) Welche der 5 aus (a, b, c) durch Andern der Reihenfolge der Vektoren bildbaren Basen sind rechtsorientiert? (c) Man ermittle das Volumen und die Oberfl¨ ache des von den Vektoren a, b, c aufgespannten Spats. Seien S := (A; i, j, k) und P/S := (1; 7, 0, 3)T , Q/S := (1; 14, 2, −1)T , R/S := (1; 1, 5, 1)T . Man gebe die Pl¨ uckersche Normalform der Geraden g(P, Q) an und berechne den Abstand des Punktes R zu g. − → Man zeige, daß das Vektorprodukt keine assoziative Operation auf V3 ist.
Diese Fußpunkte sind eindeutig bestimmt, da g und h windschief zueinander sind.
17.4 Aufgaben zum Kapitel 6
451
A.6.9 Man bestimme den Winkel zwischen zwei verschiedenen Raumdiagonalen eines W¨ urfels. A.6.10 Sei V ein Vektorraum u ¨ ber K ∈ {R, C}, auf dem ein Skalarprodukt ϕ definiert ist. Außerdem bezeichne B eine Menge von Vektoren aus V , die nicht den Nullvektor enth¨ alt und f¨ ur die gilt: ∀a, b ∈ B : a = b =⇒ ϕ(a, b) = 0. Man beweise, daß B linear unabh¨ angig ist. aren Vektorraums V u A.6.11 Es seien ϕ1 und ϕ2 zwei Skalarprodukte eines unit¨ ¨ ber dem K¨ orper C. Man beweise, daß aus ∀x ∈ V : ϕ1 (x, x) = ϕ2 (x, x) stets ϕ1 = ϕ2 folgt. A.6.12 Man gebe die Gleichung einer Ebene E ⊂ R3 an, die vom Punkt Q := (1; 3, 5, 7)T (in Koordinaten bezogen auf ein kartesisches Koordinatensystem S des R3 ) den Abstand 4 hat und auf den Koordinatenachsen von S Abschnitte abtrennt, die proportional zu 1, 2, 3 sind. A.6.13 Von dem Dreieck ∆ABC aus dem Anschauungsraum R3 weiß man, daß der Mittelpunkt der Strecke AC (beziehungsweise BC) auf der y-Achse (beziehungsweise in der x, z-Ebene) des verwendeten affinen Koordinatensystems S liegt. Außerdem kennt man die Koordinaten der Punkte A und B: A/S := (1; −4, −1, 2)T , B/S := (1; 3, 5, −16)T . Man bestimme die Koordinaten von C bez¨ uglich S. A.6.14 Die Ecken eines Tetraeders T im Anschauungsraum R3 seien durch ihre Koordinaten bez¨ uglich eines kartesischen Koordinatensystems gegeben: P1 := (1; 1, 0, 1)T , P2 := (1; 2, 1, −1)T , P3 := (1; 5, −2, −4)T , P4 := (1; −4, 2, 5)T . Man berechne: ohe h, (a) die von P1 ausgehende H¨ allten (b) den Fußpunkt S und die L¨ ange l des von P1 auf die Kante P2 P3 gef¨ Lotes, (c) den Winkel zwischen den Gegenfl¨ achen von P2 und P3 . A.6.15 Mit Hilfe von Vektoren und dem Skalarprodukt in der Anschauungsebene beweise man (a) den Satz des Pythagoras; (b) Im Rhombus stehen die Diagonalen aufeinander senkrecht. A.6.16 Man beweise: Im Parallelogramm ist die Summe der Diagonalquadrate gleich der Summe der 4 Seitenquadrate. A.6.17 Es sei S := (A; i, j) ein kartesisches Koordinatensystem f¨ ur die Anschauungsuglich S seien die Punkte B := (1; −3, 2)T und ebene R2 . In Koordinaten bez¨ P := (1; 2, −3)T gegeben. Wie lauten die Koordinaten von P bez¨ uglich des Koordinatensystems S ′ := (B; b1 , b2 ), wobei die Basis (b1 , b2 ) aus der Basis (i, j) durch Drehung um den Winkel ϕ := 60o im mathematisch positiven Drehsinn entsteht? − → A.6.18 Es seien a und b Einheitsvektoren des V3 , die einen Winkel von 45o miteinander einschließen. Man bestimme den Fl¨ acheninhalt F des Parallelogramms, dessen Diagonalen durch die Vektoren d1 := 2a − b und d2 := 4a − 5b beschrieben sind.
452
¨ 17 Ubungsaufgaben zum Teil II
A.6.19 Bezeichne V einen Vektorraum u orper K ∈ {R, C}, auf dem ein ¨ ber dem K¨ Skalarprodukt ϕ definiert ist. Seien außerdem x1 , x2 , ..., xt ∈ V gewisse Vektoren mit der Eigenschaft {y ∈ V | ∀i ∈ {1, ..., t} : ϕ(y, xi ) = 0} = {o}. Man beweise, daß dann {x1 , x2 , ..., xt } ein Erzeugendensystem f¨ ur V ist. A.6.20 Man beweise: − → ∀a, b, c ∈ V3 : (a × b) × c = (a · b) · b − (b · c) · a. A.6.21 Man berechne das Volumen eines Tetraeders mit den Eckpunkten A, B, C, D, die in Koordinaten bez¨ uglich S := (O; i, j, k) wie folgt angebbar sind: A := (1; 1, 4, 4)T , B := (1; −1, 3, 2)T , C := (1; 0, 5, 7)T , D := (1; 1, −2, 3)T . Hinweis: Der Rauminhalt eines Tetraeders ist ein Sechstel des Inhalts eines Spats, der von drei seiner Seitenvektoren aufgespannt wird. A.6.22 Seien · eine Norm des Vektorraums R Rn×1 , A ∈ Rn×n und x ∈ Rn×1 . Beweisen Sie, daß durch · : Rn×n −→ R, A := max x =o
A · x x
eine Norm ( Matrixnorm“) auf dem Vektorraum R Rn×n definiert ist. ”
17.5 Aufgaben zum Kapitel 7 A.7.1 Ist die f¨ ur einen affinen Raum R definierte Abbildung d mit j 0 f¨ ur P = Q, d(P, Q) := 1 sonst, f¨ ur alle P, Q ∈ R eine Metrik? A.7.2 In einem 4-dimensionalen affinen Raum R4 := {(1, x1 , x2 , x3 , x4 )T | x1 , x2 , x3 , x4 ∈ R} mit dem zugeh¨ origen VR V4 := {(0, x1 , x2 , x3 , x4 )T | x1 , x2 , x3 , x4 ∈ R} (auf dem das Standardskalarprodukt definiert sei) u orper R seien P := ¨ ber dem K¨ (1, 1, −1, 0, 6)T , Q := (1, 4, 2, 4, −3)T , a := (0, 1, 2, −1, 0)T , b := (0, 0, 1, 1, 1)T und c := (0, 2, −1, 0, 1)T . Man berechne eine orthonormierte Basis B := (e1 , e2 , e3 , e4 ) von V4 mit den Eigenschaften: e1 ∈ [{a}], e2 ∈ [{a, b}] und uglich des kartesischen Koordinatensystems S := (P, B) e3 ∈ [{a, b, c}]. Bez¨ berechne man außerdem die Koordinaten von Q. ahlt. Außerdem seien zwei A.7.3 Seien R4 , V4 , P , Q, a, b und c wie in A.7.2 gew¨ Unterr¨ aume E und E ′ durch E = P + [{a, b}] und E ′ = Q + [{c}] beschrieben. Man berechne: (a) den Abstand von P zu E ′ , (b) den Abstand von Q zu E , (c) ein Lot und die Fußpunkte des Lotes von E und E ′ , (d) den Abstand von E zu E ′ , (e) das Volumen des Spats Sp(P, P + a, P + b, P + c). Hinweis zu (c): Siehe Beweis von Satz 7.1.3.
17.6 Aufgaben zum Kapitel 8
453
A.7.4 Man bestimme x, y, z ∈ R so, daß
0 1 8 4 −1 1 @ A := · −1 4 8 A 9 x y z
eine orthogonale Matrix ist. Außerdem verifiziere man Satz 7.3.5 f¨ ur diese orthogonale Matrix.
17.6 Aufgaben zum Kapitel 8 p4 (x) := x4 − 3x3 − 24x2 − 25x − 21. Man berechne: 4 (x) p4 (9) und px−9 mittels Horner-Schema; p4 (x) p4 (8) und x−8 mittels Horner-Schema; die Nullstellen von p4 (x). (Hinweis: Zwei der Nullstellen von p4 sind ganzzahlig.) Sei α eine k-fache Nullstelle des Polynoms p(x) ∈ Pn (k, n ∈ N, n ≥ 1). Man zeige, daß dann α eine (k − 1)-fache Nullstelle der Ableitung p′ (x) ist. Man beweise: Besitzt ein Polynom p mit nur reellen Koeffizienten eine Nullstelle z := a+b·i ∈ C\R, so ist auch die konjugiert komplexe Zahl z = a−b·i eine Nullstelle von p. Man beweise: Jedes Polynom ungeraden Grades mit nur reellen Koeffizienten besitzt mindestens eine reelle Nullstelle. Sei K = R. Man berechne die Eigenwerte und die Eigenvektoren der Matrix Au ur ¨ ber R f¨
A.8.1 Sei (a) (b) (c) A.8.2 A.8.3
A.8.4 A.8.5
(a) A =
„
4 6 7 3
«
1 0 2 0 1 2 0C C 2 12 2 A 0 2 1 1 4 0 2 (e) A = @ −6 1 −4 A −6 0 −3 0
1 B0 B (c) A = @ 2 0 0
(b) A =
„
5 4 2 3
«
0
1 5 −1 −1 (d) A = @ 1 3 1 A −2 2 4
A.8.6 F¨ ur die in Aufgabe A.8.5, (c) angegebene symmetrische Matrix A berechne man eine orthogonale Matrix B mit der Eigenschaft, daß BT · A · B eine Diagonalmatrix ist. A.8.7 Man beweise, daß die Matrix 1 0 0 1 0 0 B 0 0 1 0C 4×4 C A1 = B @ 0 0 0 1A∈R −6 1 7 −1 diagonalisierbar ist und gebe eine Matrix B ∈ R4×4 an, die mittels B−1 ·A1 ·B die Matrix A1 in eine Diagonalmatrix u uhrt. Man begr¨ unde außerdem die ¨ berf¨ Nichtdiagonalisierbarkeit der Matrix
454
¨ 17 Ubungsaufgaben zum Teil II 0 A2
1 1 0 1 = @ 0 1 0 A ∈ R3×3 . 0 0 1
A.8.8 Sei A ∈ R2×2 . Man zeige: (a) Besitzt A einen Eigenwert λ ∈ R mit„dimLA«(λ) = 2, so existiert eine λ 0 . regul¨ are Matrix B mit B−1 · A · B = 0 λ (b) Besitzt A einen Eigenwert λ ∈ R mit„dimLA«(λ) = 1, so existiert eine λ 1 . regul¨ are Matrix B mit B−1 · A · B = 0 λ (c) Besitzt A zwei verschiedene Eigenwerte 2 ∈ R, so existiert eine re„ λ1 , λ« λ 0 1 gul¨ are Matrix B mit B−1 · A · B = . 0 λ2 (d) Besitzt A keinen Eigenwert are Matrix B « λ ∈ R, so existiert eine regul¨ „ 0 −d −1 , wobei s die Spur von A ist und d := det A. mit B · A · B = 1 s n×n A.8.9 Seien A ∈ C und λ ein EW von A. Man zeige, daß λr f¨ ur jedes r ∈ r ur an, daß die N ein EW von A ist. Außerdem gebe man ein Beispiel daf¨ oßer sein kann als die Vielfachheit von Vielfachheit von λr als EW von Ar gr¨ λ als EW von A. A.8.10 Sei A ∈ K n×n . Man beweise: a) A und AT haben die gleichen Eigenwerte. b) Sind K = R, A orthogonal und λ ein EW von A, so ist λ = 0 und λ1 ebenfalls ein EW von A. A.8.11 Man beweise: Es sei n ∈ N gerade, A ∈ Cn×n und A = −AT . Dann treten in dem charakteristischen Polynom von A nur gerade λ-Potenzen auf. A.8.12 F¨ ur A ∈ Cn×n seien n − 1 EWe bekannt. Wie kann man dann einen weiteren EW von A bestimmen? ar ist, wenn 0 kein EW von A A.8.13 Man beweise, daß A ∈ K n×n genau dann regul¨ ist. A.8.14 F¨ ur die folgende Matrix A berechne man eine Jordan-Matrix J sowie eine regul¨ are Matrix B mit B−1 · A · B = J. (a) 0 1 7 1 −8 −1 B0 3 0 0C C A := B @ 4 2 −5 −1 A 0 −4 0 −1 (b)
0
1 8 −3 −2 −2 B 1 7 −2 −1 C C A := B @ 1 −2 5 −2 A −1 0 2 8
17.7 Aufgaben zum Kapitel 9
455
(c) 0
B B B A := B B B @
2 −2 1 3 29 0 0 −3 2 0 6 −1 42 −34 60 −6 1 −8
−4 −3 −21 19 31 217 0 −3 −21 6 7 49 26 −36 −266 −6 1 9
1 C C C C C C A
Hinweis zu (c): Es gilt |A − λ · E6 | = (2 − λ)6 . A.8.15 Seien y, y1 , ..., yn nachfolgend die Bezeichnungen f¨ ur differenzierbare Funktionen mit einem gewissen Definitionsbereich A ⊆ R. Die Ableitungen dieser Funktionen seien mit y ′ , y1′ , ..., yn′ bezeichnet. Außerdem seien α, C ∈ R und f eine u uft, ist dann ¨ ber A stetige Funktion. Wie man leicht nachpr¨ ur jedes C ∈ R eine L¨ oRsung der Differentialgleichung y(x) = C · eα·x f¨ ur beliebiges y ′ (x) = α · y(x), und y(x) = C · eα·x + eα·x · ( f (x) · e−α·x dx) f¨ C ∈ R eine L¨ osung der Differentialgleichung y ′ (x) − α · y(x) = f (x). Diese L¨ osungsformeln kann man benutzen, um ein Differentialgleichungssystem (mit den unbekannten Funktionen y1 , ..., yn und gegebener Konstanten α) der Form y1′ (x) = α · y1 (x) y2′ (x) = y1 (x) + α · y2 (x) y2 (x) + α · y3 (x) y3′ (x) = .................................................................. yn−1 (x) + α · yn (x) yn′ (x) = zu l¨ osen. Man berechne eine L¨ osung des obigen Differentialgleichungssystems f¨ ur n = 3 und α = 2. Es sei nun y′ := (y1′ (x), y2′ (x), ..., yn′ (x))T , y := (y1 (x), y2 (x), ..., yn (x))T und A ∈ Rn×n . Zwecks L¨ osung der Gleichung y′ = A · y kann man y = B · z mit einer geeigneten regul¨ aren Matrix B substituieren und erh¨ alt aus y′ = ′ −1 A · y die Gleichung z = B · A · B · z mit der neuen Unbekannten z := ahlen, um zun¨ achst z und dann y (z1 (x), ..., zn (x))T . Wie hat man B zu w¨ bestimmen zu k¨ onnen?
17.7 Aufgaben zum Kapitel 9 A.9.1 Man berechne f¨ ur die folgende Kurve 2. Ordnung Ti (i ∈ {1, 2, ..., 5}) eine Normalform. Insbesondere gebe man die zugeh¨ origen Koordinatentransformationen und die Art der Kurve an. Außerdem skizziere man die Kurve im x, y-Koordinatensystem. (a) T1 : 7x2 − y 2 + 6xy + 52x + 4y + 58 = 0,
(b) T2 : 6x2 + 3y 2 + 4xy − 4x + 8y + 9 = 0,
(c) T3 : x2 + y 2 + 8xy − 10x + 20y − 35 = 0, √ (d) T4 : x2 + 7y 2 + 2 7xy − 2y = 0, (e) T5 : 2x2 + 2y 2 − 4xy + 2x + 6y = 0.
456
¨ 17 Ubungsaufgaben zum Teil II
A.9.2 Man berechne f¨ ur die folgende Fl¨ ache 2. Ordnung Ti (i ∈ {1, 2, ..., 6}) eine Normalform. Insbesondere gebe man die zugeh¨ origen Koordinatentransformationen und die Art der Fl¨ ache an. √ √ √ (a) T1 : 3x2 + 3y 2 + 3z 2 + 4 2xz − 2yz − 12x − 6 2y + 6 2z − 1 = 0, (b) T2 : x2 + y 2 + 16z 2 + 8xz + 2x − 2y + 2z = 0, (c) T3 : x2 + y 2 + 2xy + 4x − 2y + 6z + 183 = 0,
(d) T4 : x2 + 9y 2 + 16z 2 − 6xy − 8xz + 24yz + 2x − 12y − 16z + 1 = 0, (e) T5 : xy + xz + yz + x + y + z = 0, (f) T6 : 3x2 + 3y 2 + 6xy + 2x + 2y − 4z + 3 = 0. A.9.3 Gegeben seien zwei Koordinatensysteme S := √ (A; i, j) und S ′ := √ (A′ , a, b) der Ebene, wobei A′ := A + 3 · i + j, a := 21 · i + 23 · j und b := − 23 · i + 21 · j. Weiter sei bez¨ uglich des Koordinatensystems S ′ eine Ellipse E:
′ 1 ′2 ·x +y 2 =1 4
gegeben. Berechnen Sie die beschreibende Gleichung f¨ ur E bez¨ uglich des Koordinatensystems S. A.9.4 Gegeben seien zwei Koordinatensysteme S := √(A; i, j) und S ′ := (A′ , a, b) der √ √ √ ′ 2 2 2 Ebene, wobei A := A + i − j, a := 2 · i + 2 · j und b := 2 · i − 22 · j. Weiter sei bez¨ uglich des Koordinatensystems S ′ eine Parabel 2
P : x′ − 2 · y ′ = 0 gegeben. Berechnen Sie die beschreibende Gleichung f¨ ur P bez¨ uglich des Koordinatensystems S. A.9.5 Zeichnen (nicht skizzieren) Sie 2 2 (a) die Ellipse E : x25 + y9 = 1; 2
2
(b) die Hyperbel H : x25 − y9 = 1 und ihre Asymptoten. Außerdem gebe man die Parametergleichungen der Ellipse und Hyperbel an. A.9.6 F¨ ur die durch F : 14 x2 + 19 y 2 − z 2 = 1 gegebene Fl¨ ache 2. Ordnung bestimme man (a) ihre Schnittpunkte mit der Geraden g : X = (1; 4, 9, 2)T + t · (0; 2, 6, 1)T , (b) ihre Schnittkurve S mit der Ebene E : y + 3z − 3 = 0, (c) die Gestalt von S und das singul¨ are Gebilde von S. A.9.7 Durch x2 + y 2 − z 2 = 49 ist ein einschaliges Hyperboloid H gegeben und es seien P1 := (1; 7, 0, 0)T und P2 := (1; 20, 15, 24)T . Man berechne Geraden g, g ′ , g ′′ , g ′′′ ⊆ H f¨ ur die (a) P1 ∈ g, P1 ∈ g ′ und g = g ′ , (b) P1 ∈ g ′′ , P2 ∈ g ′′′ und g ′′ ∩ g ′′′ = ∅ gilt. Außerdem zeige man, daß g und g ′′′ windschief zueinander sind. A.9.8 Man berechne f¨ ur die folgende Hyperfl¨ ache 2. Ordnung Ti (i ∈ {1, 2}) des origen Koordinatentransformationen R4 eine Normalform und gebe die zugeh¨ an. (a) 2(x1 x2 + x1 x3 − x1 x4 − x2 x3 + x2 x4 + x3 x4 − x2 − 2x3 − 3x4 ) + 5 = 0,
(b) 4(x1 x2 + x1 x3 + x1 x4 + x2 x3 + x2 x4 + x3 x4 ) + 3x24 + 14x4 + 11 = 0. A.9.9 Man beweise Satz 9.3.5.
17.8 Aufgaben zum Kapitel 10
457
17.8 Aufgaben zum Kapitel 10 A.10.1 Sei K ein K¨ orper und K m×1 wie im Kapitel 4 definiert. Welche der folgenden Abbildungen fi (i ∈ {1, 2, 3}) sind linear? (a) f1 : K n×1 −→ K 2×1 , (x1 , ..., xn )T → (x1 , x2 − x3 )T , (b) f2 : K n×1 −→ K, (x1 , ..., xn )T → x1 + x2 + ... + xn , (c) f3 : K n×1 −→ K, (x1 , ..., xn )T → x21 + x2 . A.10.2 Man beweise, daß f : K −→ K, x → x2 (K K¨ orper) genau dann linear ist, wenn |K| = 2 gilt. A.10.3 Sei V ein eindimensionaler VR u orper K. Man beweise, daß eine ¨ ber dem K¨ Abbildung f : V −→ V genau dann linear ist, wenn es ein gewisses Element c ∈ K gibt, so daß f (x) = c · x f¨ ur alle x ∈ V gilt. A.10.4 Sei V ein 4-dimensionaler VR u orper R mit der Basis B := ¨ ber dem K¨ (b1 , b2 , b3 , b4 ). Eine lineare Abbildung f : V −→ V besitze außerdem bez¨ uglich B die Abbildungsmatrix 0 1 1 2 0 1 B 3 0 −1 2 C C Af (b, B) := B @ 2 5 3 1 A. 1 −2 1 3 Man berechne die Abbildungsmatrizen von f bez¨ uglich der Basis (a) (b4 , b3 , b2 , b1 ) (b) (b1 , b1 + b2 , b1 + b2 + b3 , b1 + b2 + b3 + b4 ). A.10.5 Es sei K V := R R3×1 und t ∈ R. Durch 00 11 0 1 0 1 x t−2 2 −1 x 2 t 2 A·@ y A f @ @ y A A := @ z 2t 2t + 2 t + 1 z
ist eine lineare Abbildung von V in V definiert. Man bestimme rgf in Abh¨ angigkeit von t und f (V ) f¨ ur diejenigen Zahlen t, f¨ ur die rgf ≤ 2 gilt. A.10.6 Es sei U ein t-dimensionaler UVR des n-dimensionalen VRs V u ¨ber K ∈ {R, C} mit Skalarprodukt ϕ (t, n ∈ N). Wie im Abschnitt 6.5 vereinbart, sei die orthogonale Projektion von x ∈ V in U mit xU bezeichnet. Man beweise, daß die Abbildung f : V −→ V, x → xU
eine lineare Abbildung ist. Speziell f¨ ur K V := R R4×1 mit dem Standardskalarprodukt und U := [{(1, 1, 1, 1)T }] berechne man außerdem die Matrix Af mit der Eigenschaft ur alle x ∈ R4×1 . f (x) = Af · x f¨ A.10.7 Im Vektorraum P2 aller Polynome, die h¨ ochstens den Grad 2 haben und die auf dem Intervall [a, b] definiert sind, u orper K = R, sei durch ¨ ber dem K¨ Z 1 ∀s, t ∈ P2 : ϕ(s, t) := s(x) · t(x) dx −1
ein Skalarprodukt ϕ definiert. Außerdem sei f : P2 −→ P2 , ax2 + bx + c → 2ax + b der sogenannte Ableitungsoperator, der eine lineare Abbildung ist. Man beuglich der Basis stimme die Matrizen Af und Af ⋆ (siehe Satz 10.1.4) bez¨
458
A.10.8
A.10.9
A.10.10
A.10.11
A.10.12
A.10.13 A.10.14
¨ 17 Ubungsaufgaben zum Teil II (a) B := (1, x, x2 ), (b) B ′ := ( 21 x2 − 21 x, x2 − 1, 12 x2 + 21 x). Es sei K ∈ {R, C}, K V ein Vektorraum mit Skalarprodukt ϕ und f , g lineare Abbildungen von V in V , f¨ ur die die adjungierten Abbildungen f ⋆ , g ⋆ , (f +g)⋆ und (f 2g)⋆ existieren (siehe Abschnitt 10.2). Man beweise: (a) (f + g)⋆ = f ⋆ + g ⋆ , (b) ∀λ ∈ K : (λ · f )⋆ = λ · f ⋆ , (c) (f 2g)⋆ = g ⋆ 2f ⋆ . Es sei K ∈ {R, C} und K V ein Vektorraum, auf dem ein Skalarprodukt ϕ definiert ist. Man beweise: Ist ein UVR U ⊆ V invariant bez¨ uglich der linearen Abbildung f : V −→ V , so ist das orthogonale Komplement U ⊥ von U invariant bez¨ uglich der zu f adjungierten Abbildung f ⋆ . Es sei n ∈ N und V ein euklidischer n-dimensionaler Vektorraum mit dem Skalarprodukt ϕ. Man beweise: Haben zwei Vektoren y und z aus V gleiche L¨ ange, so gibt es eine orthogonale Abbildung f : V −→ V mit f (y) = z. Es sei n ∈ N und V ein euklidischer n-dimensionaler Vektorraum mit dem Skalarprodukt ϕ und der Norm · ϕ . Außerdem sei f eine lineare Abbildung von V in V . Man beweise, daß die folgenden Aussagen ¨ aquivalent sind: (a) f ist eine orthogonale Abbildung. (b) ∀x, y ∈ V : ϕ(x, y) = ϕ(f (x), f (y)). ur (c) Es existiert eine Basis b1 , ..., bn von V mit ϕ(bi , bj ) = ϕ(f (bi ), f (bj )) f¨ alle i, j ∈ {1, ..., n}. Es sei K ∈ {R, C}, K V ein Vektorraum mit Skalarprodukt ϕ und f : V −→ V eine normale Abbildung (siehe Abschnitt 10.3). Nach Definition existiert dann zu f die adjungierte Abbildung f ⋆ (siehe Abschnitt 10.2). Man zeige, daß f (x)ϕ = f ⋆ (x)ϕ f¨ ur beliebige x ∈ V gilt. Sei V ein 2k +1-dimensionaler VR u orper R (k ∈ N). Man beweise, ¨ ber dem K¨ daß jede lineare Abbildung f : V −→ V mindestens einen Eigenwert besitzt. Es seien V und W Vektorr¨ aume u orper K und f : V −→ W ¨ ber dem K¨ eine injektive lineare Abbildung. Außerdem seien b1 , ..., bn ∈ V linear unabh¨ angig. Man beweise, daß dann auch die Vektoren f (b1 ), ..., f (bn ) ∈ V linear unabh¨ angig sind.
17.9 Aufgaben zum Kapitel 11 A.11.1 Sei Rn ein n-dimensionaler affiner Raum mit dem zugeh¨ origen VR Vn u ¨ ber dem K¨ orper K. Man zeige, daß die nachfolgend definierten Abbildungen fT ( Translation“) und fP ( Parallelprojektion“) affine Abbildungen von Rn in ” ” Rn sind. (a) fT : Rn −→ Rn sei eine Abbildung mit der Eigenschaft: fT (P ) − P = fT (Q) − Q f¨ ur alle P, Q ∈ Rn . (b) Auf Vn sei ein Skalarprodukt definiert. Zwecks Definition von fP seien ein ahlt. Nach Definition eines affinen Q ∈ R und ein UVR U von Vn fest gew¨ Raumes existiert zu jedem X ∈ Rn ein x ∈ Vn mit X = Q+x. Da Vn endlichdimensional ist, l¨ aßt sich x auf eindeutige Weise als Linearkombination zweier Vektoren xU ∈ U und xU ⊥ ∈ U ⊥ mittels x = xU +xU ⊥ darstellen (siehe Satz 6.5.12). Die Abbildung fP sei dann durch fP (X) := Q + xU definiert.
17.9 Aufgaben zum Kapitel 11
459
A.11.2 Man beweise, daß eine affine Abbildung Parallelogramme in Parallelogramme u uhrt. ¨ berf¨ A.11.3 Seien f : R −→ R′ eine affine Abbildung, g ⊆ R und h ⊆ R Geraden und P ∈ R. Man beweise: (a) Die Menge f (g) := {f (X) | X ∈ g} ist eine Gerade oder besteht nur aus einem Punkt. (b) Sind g und h parallel sowie |f (g)| = 1, dann ist auch |f (h)| = 1. A.11.4 Sei f : Rn −→ Rn eine affine Abbildung. Wie viele Punkte Pi (i ∈ I) mit welchen Eigenschaften ben¨ otigt man mindestens, damit f durch die Festlegung f (Pi ) := Qi eindeutig bestimmt ist? A.11.5 Seien R ein affine Raum mit dem zugeh¨ origen Vektorraum V u ¨ ber dem K¨ orper K und f eine affine Abbildung von R in R. Man beweise, daß die folgenden Aussagen ¨ aquivalent sind: (a) f ist eine Translation, d.h., f¨ ur beliebige P, Q ∈ R gilt f (P ) − P = f (Q) − Q. (b) F¨ ur alle Punkte P, Q ∈ R gilt f (Q) − f (P ) = Q − P . →
(c) f = idV . A.11.6 Ein Punkt P eines affinen Raumes R heißt Fixpunkt einer affinen Abbildung f : R −→ R, wenn f (P ) = P ist. (a) Man beweise: Bei fixiertem P ∈ Rn kann jede Affinit¨ at f ∈ A1 in der Form f = g2h dargestellt werden, wobei h ∈ A1 eine Translation und g ∈ A1 den Fixpunkt P besitzt. (b) Sind g und h aus (a) bei gegebenen f und P eindeutig bestimmt? A.11.7 Sei f : Rn −→ Rn eine affine Abbildung (n ∈ N). Man beweise: →
(a) Falls f genau einen Fixpunkt hat, dann ist 1 kein Eigenwert von f . (b) Besitzt f mindestens zwei verschiedene Fixpunkte, so ist 1 ein Eigenwert →
von f . A.11.8 Ist die Dimension von Unterr¨ aumen eine Invariante von (a) surjektiven, (b) injektiven affinen Abbildungen? − → origen Vektorraum V2 ist ein affiA.11.9 Die Anschauungsebene R2 mit dem zugeh¨ − → ner Raum. Auf V2 sei das Skalarprodukt · aus Abschnitt 6.1 definiert. Man beweise, daß f¨ ur eine beliebige affine Abbildung f : R2 −→ R2 und beliebige − → linear unabh¨ angige Vektoren a, b ∈ V2 gilt: f ist eine Kongruenz (Bewegung) des R2 ⇐⇒ → − → − → − → − |a| = | f (a)| ∧ |b| = | f (b)| ∧ a · b = f (a) · f (b). ahlt. Man beweise die A.11.10 Sei als affiner Raum R die Anschauungsebene R2 gew¨ Kongruenzs¨ atze f¨ ur Dreiecke, d.h., man beweise, daß zwei Dreiecke aus R2 genau dann durch eine Kongruenz (siehe Satz 11.2.3) aufeinander abgebildet werden k¨ onnen, wenn sie in folgenden St¨ ucken u ¨ bereinstimmen: (a) den L¨ angen aller Seiten, (b) den L¨ angen zweier Seiten und dem eingeschlossenen Winkel, (c) der L¨ ange einer Seite und den beiden anliegenden Winkeln oder (d) den L¨ angen zweier Seiten und dem der gr¨ oßeren Seite gegen¨ uberliegende Winkel.
18 ¨ Ubungsaufgaben zum Teil III
18.1 Aufgaben zum Kapitel 12 A.12.1 Man u uhre die rationalen Zahlen ¨ berf¨ (a) −55, (b) 4520, (c) 87 mit der Einleseabbildung γ b in die Kodierung des Maschinenzahlbereichs M(2, 9, 3). A.12.2 Wie sehen die Zahlen (a) +0.110100001(+011), (b) −0.100110011(+101), (c) −0.100000001(−001) aus M(2, 9, 3) in Dezimalschreibweise aus? A.12.3 Seien a := 0.4872 · 102 , b := 0.4671 · 10−2 und c := 0.5505 · 10−2 . Man zeige, daß bei 4-stelliger dezimaler Rechnung (mit Runden) nicht mehr a+(b+c) = (a + b) + c gilt. A.12.4 Welcher der folgenden (algebraisch ¨ aquivalenten) Ausdr¨ ucke A1 := (y + z) − 2 · x, A2 := (y − x) + (z − x) ist beim Rechnen mit Maschinenzahlen f¨ ur x ≈ y ≈ z g¨ unstiger? Man erl¨ autere die Beantwortung der Frage durch Beispielen aus (M(10, 3, 1); b γ) und (M(2, 4, 2); b γ ). A.12.5 Man berechne das Intervall, in dem z :=
x+y u·v
liegt, falls x ∈ [1.45, 1.55], y ∈ [−0.005, 0.005], u ∈ [0.95, 1.05] und v ∈ [−2.05, −1.95]. A.12.6 Man begr¨ unde, daß f¨ ur die Intervalladdition und Intervallmultiplikation das Distributivgesetz nur in der abgeschw¨ achten Form der sogenannten Subdistributivit¨ at [a, b] · ([c, d] + [e, f ]) ⊆ [a, b] · [c, d] + [a, b] · [e, f ]
(18.1)
g¨ ultig ist. Anhand eines Beispiels zeige man insbesondere ⊂“ in (18.1). ”
462
¨ 18 Ubungsaufgaben zum Teil III
18.2 Aufgaben zum Kapitel 13 A.13.1 Man bestimme f¨ ur die Funktion f ∈ C[a, b] mit (a) f (x) := x3 + x2 − 1, [a, b] = [0, 41 ], (b) f (x) := 1 +
1 7
· ex +
(c) f (x) := cos x −
1 x2
1 9
· x3 , [a, b] = [0, 1],
+ 1, [a, b] = [ π2 , π]
ur ein m¨ oglichst kleines k mit 0 ≤ k < 1 und |f (x1 ) − f (x2 )| ≤ k · |x1 − x2 | f¨ alle x1 , x2 ∈ [a, b]. ur x ∈ [1.4, 1.5] die Voraussetzungen A.13.2 Sei g(x) := x2 + x1 . Man zeige, daß g(x) f¨ des Banachschen Fixpunktsatzes erf¨ ullt und berechne den Fixpunkt von g (a) direkt, (b) mit Hilfe des Iterationsverfahrens aus dem Banachschen Fixpunktsatz. A.13.3 Sei 1 1 f (x) := ( + 1) · + 1. x x aßt sich Eine L¨ osung x⋆ der Gleichung f (x) = x aus dem Intervall [1.8, 2] l¨ mit Hilfe des Iterationsverfahrens aus dem Banachschen Fixpunktsatz berechnen, wobei sich die Lipschitz-Konstante k grob mit k ≤ 0.7 absch¨ atzen l¨ aßt. Wie viele Iterationsschritte n (beginnend mit x0 = 2) hat man mindestens zur n¨ aherungsweisen Berechnung von x⋆ auszuf¨ uhren, damit die n-te N¨ aherung xn f¨ ur x⋆ der Absch¨ atzung xn − x⋆ ≤ 10−4 gen¨ ugt? A.13.4 Die L¨ osung x⋆ der Gleichung f (x) :=
1 3 1 2 x + x + 0.7 = x 6 8
aus dem Intervall [0.9; 1.1] l¨ aßt sich mit Hilfe des Iterationsverfahrens aus dem Banachschen Fixpunktsatz berechnen. Man bestimme eine Absch¨ atzung ur die Konstante k aus der Lipschitzbedingung. Wie viele Iteratik′ < 1 f¨ ur onsschritte n (beginnend mit x0 := 1) hat man zu berechnen, damit f¨ die n-te N¨ aherung xn der L¨ osung x⋆ die Absch¨ atzung xn − x⋆ ≤ 10−4 gilt? N¨ aherungen f¨ ur x⋆ lassen sich auch mit Hilfe des Newton-Verfahrens berechnen. Man gebe dieses Verfahren an! 1 + 2. f besitzt den A.13.5 Seien A := [0, 3] ⊆ R und f : A −→ A, x → f (x) := x+2 √ Fixpunkt 5. (a) Zeigen Sie, daß f (x) f¨ ur x ∈ [0, 3] die Voraussetzungen des Banachschen Fixpunktsatzes erf¨ ullt. √ (b) Geben Sie ein Iterationsverfahren zur Berechnung von 5 an. Wie viele √ Iterationsschritte hat man bei diesem Verfahren auszuf¨ uhren, um 5 auf vier Stellen nach dem Punkt genau zu berechnen? A.13.6 Man skizziere den Graphen der Funktion f (x) := x3 − 2x2 − 26x − 14 f¨ ur x ∈ [−4, 7] und berechne mit Hilfe des Newton-Verfahrens die betragsm¨ aßig gr¨ oßte Nullstelle von g auf drei Stellen nach dem Punkt genau. A.13.7 Man berechne Nullstellenschranken f¨ ur das Polynom p4 (x) :=
1 4 2 x − + 3x2 − 4x + 1 24 3
und bestimme mit Hilfe des Bisektionsverfahrens Intervalle, in denen sich jeweils genau eine der Nullstellen von p4 befindet.
18.3 Aufgaben zum Kapitel 14
463
Wie lassen sich die Nullstellen mit Hilfe des Newton-Verfahrens oder der Regula falsi berechnen? A.13.8 Unter geeigneten Voraussetzungen f¨ ur die Funktion g (wie z.B. Differenzierbarkeit) stelle man Konvergenzkriterien f¨ ur die Regula falsi, 1. Form auf und beweise sie. A.13.9 Sei p6 (x) := x6 − 4x4 − 7x2 + 3x − 1. Mit Hilfe des zweizeiligen Horner-Schemas berechne man (a) ein Polynom q(x) und gewisse c1 , c0 ∈ R mit
p6 (x) := (x2 + 4x + 20) · q(x) + c1 · x + c0 ; (b) p6 (2 − 4 · i), p6 (−1 + 3 · i).
18.3 Aufgaben zum Kapitel 14 A.14.1 F¨ ur die Matrix
0
1 2
@ 0 0
0 0 1 2 1 4
1 3 1 5
1 A
berechne man A1 , A∞ und A2 . A.14.2 F¨ ur die Matrix 1 0 0.2 0.1 0.1 @ −0.1 0.2 −0.1 A 0.1 −0.1 0.2
berechne man A1 und A∞ exakt sowie A2 n¨ aherungsweise. Hinweis: Zur n¨ aherungsweisen Berechnung von A2 siehe A.14.3 und A.14.4. √ A.14.3 Man beweise die folgende Absch¨ atzung f¨ ur A2 = τ , wobei τ der gr¨ oßte Eigenwert der Matrix AT · A ist und A := (a1 , a2 , ..., an ) ∈ Rn×n (siehe Satz 14.2.5). q A2 ≤
aT1 · a1 + aT2 · a2 + ... + aTn · an
Hinweis: Siehe Satz 8.2.8, (b). A.14.4 F¨ ur eine Matrix B := (bij )n,n ∈ Cn×n seien die folgenden Mengen definiert: Ki := {x ∈ C | |bii − x| ≤ und Ki′ := {x ∈ C | |bii − x| ≤
n X
|bij |}
n X
|bij |}
j=1,j =i
i=1,i=j
(i = 1, 2, ..., n). Man beweise, daß dann alle Eigenwerte von B zur Menge (K1 ∪ K2 ∪ ... ∪ Kn ) ∩ (K1′ ∪ K2′ ∪ ... ∪ Kn′ ) geh¨ oren.
464
¨ 18 Ubungsaufgaben zum Teil III
A.14.5 Man l¨ ose das LGS
0.89x − 0.87y = 3.4 −0.96x + 0.97y = −3.6
durch eine (a) 2-stellige, (b) 10-stellige Rechnung und bestimme die Kondition dieses LGS. A.14.6 Seien « « „ « „ „ 0.04 0.05 −0.025 0.075 e , b := , b := A := , −0.07 −0.075 0.05 −0.125
A · x = b und A · ex = e b. Man berechne eine Absch¨ atzung f¨ ur den relativen Fehler x − ex∞ . x∞ Wie groß ist die Kondition des LGS A · x = b? A.14.7 F¨ ur die nachfolgenden Aufgaben sei als LGS 2x + y = 7 −x + 4y = 10. gew¨ ahlt. (a) Man berechne bzw. gebe an: (α) die Kondition (bez. der Maximumnorm) des LGS; (β) das Gauß-Seidel-Verfahren zur n¨ aherungsweisen Berechnung der aherung x1 , wobei x0 = o gew¨ ahlt L¨ osung x⋆ des LGS sowie die N¨ sei; (γ) den relativen Fehler von x1 bez. Maximumnorm (Hinweis: Die exakte L¨ osung des LGS ist x = 2, y = 3.); (b) Man begr¨ unde die Konvergenz des Gauß-Seidel-Verfahrens. (c) Wie viele Iterationsschritte sind beim Gauß-Seidel-Verfahren erforderur x⋆ die Absch¨ atzung x⋆ −xn < 10−4 lich, damit f¨ ur die N¨ aherung xn f¨ gilt? (d) Man fertige eine Skizze zum Verfahren Projektion auf Hyperebenen“ ” ur das obige LGS an. (x0 = o) f¨ A.14.8 Gegeben sei das folgende LGS 8x1 + 2x2 + 3x3 + x4 4x2 + x3 + 2x4 x1 + 8x3 3x4 x1 + x2 + 4x4
= 7 = 3 = −1 = 9.
Man gebe f¨ ur dieses LGS das Jacobi- und das Gauß-Seidel-Verfahren an und berechne jeweils x1 und x2 auf 5 Stellen nach dem Punkt genau, indem man mit x0 := o beginnt. Man begr¨ unde die Konvergenz dieser Verfahren. Man gebe f¨ ur beide Verfahren ein (m¨ oglichst kleines) i mit xi − x∗ ∞ < 10−6 an.
18.4 Aufgaben zum Kapitel 15 A.14.9 Das LGS
465
x2 − 7x3 = 2 α · x1 + x1 − 13x2 − 5x3 = 0 x2 + 13x3 = 7 x1 +
soll n¨ aherungsweise gel¨ ost werden. F¨ ur welche α ∈ R konvergiert das (a) Jacobi-Verfahren (b) Gauß-Seidel-Verfahren bez¨ uglich der Maximumnorm? A.14.10 Man berechne mit Hilfe der Projektion auf Hyperebenen drei N¨ aherungen ur die L¨ osung x ( = (1, 1, 1)T ) des LGS x1 , x2 , x3 f¨ x1 + 2x2 = 3 = −1 x1 − 2x2 x2 + 3x3 = 4, ahlt sei. wobei x0 = o gew¨ A.14.11 Man berechne mit Hilfe des Gradientenverfahrens die L¨ osung des folgenden LGS: 4x2 − 2x3 = 2 4x1 + x2 − 3x3 = 2 −2x1 − 3x2 + 7x3 = 2
A.14.12 Man berechne mit Hilfe des Verfahrens der konjugierten Gradienten die L¨ osung des folgenden LGS: 3x1 + 2x2 + 2x3 = 3 2x1 + 3x2 + 2x3 = 4 2x1 + 2x2 + 3x3 = 0
18.4 Aufgaben zum Kapitel 15 A.15.1 Ist das Interpolationsproblem mit n := 2, [a, b] := [0,
π ], y1 (x) := sin x, y2 (x) := cos x 2
f¨ ur beliebige Referenzen aus dem Intervall [a, b] und einer beliebigen Funktion f ∈ C[a, b] l¨ osbar? ur i = 0, 1, 2, 3 und A.15.2 Seien xi := 2 · i f¨ f (0) = 7, f (2) = 2, f (4) = −6, f (6) = 0. Geben Sie das Lagrangesche Interpolationspolynom p3 (x) mit p3 (xi ) = f (xi ), i = 0, 1, 2, 3 an. A.15.3 Seien Li (x) f¨ ur i = 0, 1, ..., n die Lagrangekoeffizienten zu einer gegebenen P Referenz x0 < x1 < · · · < xn . Man beweise n i=0 Li (x) = 1. ur i = 0, 1, 2, 3, 4, 5 und f (0) = −1, f (1) = 0, f (2) = A.15.4 Seien xi := i f¨ 13, f (3) = 146, f (4) = 723, f (5) = 2404. Berechnen Sie das Newtonsche ur alle Interpolationspolynom g(x) mit Grad(g) ≤ 5 und g(xi ) = f (xi ) f¨ i ∈ {0, 1, 2, 3, 4, 5}.
466
¨ 18 Ubungsaufgaben zum Teil III
A.15.5 Mit Hilfe des Neville-Algorithmus berechne man den Wert des Polynoms ur x = 6. p5 (x) aus A.15.4 f¨ A.15.6 Interpolationspolynome lassen sich auf folgende Weise benutzen, um Integrale n¨ aherungsweise zu berechnen: Zu gegebener Referenz a ≤ x0 < x1 < x2 < ... < xn ≤ b und den Funktionswerten f (x0 ), f (x1 ), f (x2 ), ..., f (xn ) l¨ aßt sich das Lagrangesche Interpolationspolynom g(x) :=
n X i=0
f (xi ) · Li (x),
bestimmen. Integriert man anstelle von f die Funktion g, so erh¨ alt man Z
b a
f (x) dx ≈
n X i=0
f (xi ) ·
Z
b
Li (x) dx.
(18.2)
a
und xi := a + i · h, so folgen aus (18.2) die sogenannten Setzt man h := b−a n Newton-Cotes-Formeln zur numerischen Integration von f u ¨ ber dem Intervall [a, b]: Z
a
mit
b
f (x) dx ≈
n X i=0
f (a + i · h) ·
Z
b
Li (x) dx
(18.3)
a
Li (x) := (x−a)(x−(a+h))...(x−(a+(i−1)h))(x−(a+(i+1)h))...(x−b) (ih)((i−1)h)...(h)(−h))...((i−n)h)
Man verifiziere die folgenden drei Spezialf¨ alle von (18.3): n
h
1 b−a
Newton-Cotes-Formel
Bezeichnung
h 2
· (f (a) + f (b))
Trapezregel
· (f (a) + 4f (a + h) + f (b))
Simpson-Regel
2
b−a 2
h 3
3
b−a 3
3h 8
· (f (a) + 3f (a + h) + 3f (a + 2h) + f (b))
3 -Regel 8
Literaturverzeichnis
[Alt 2003] [Aig 84] [Ale 67] [Ass 59] [Ass 75] [Bar-K 89] [Ber 89] [B¨ oh 81-1] [B¨ oh 81-2] [Bos 73] [Bre-B 66] [Bri 83]
[Bro-S 91] [Bur-S 81] [Cig 95] [Dal-E 91] [Das 2005]
Alten, H.-W., Djafari-Naini, A., Folkerts, M., Schlosser, H., Schlote, K.-H., Wußing, H.: 4000 Jahre Algebra. Springer-Verlag 2003 Aigner, M.: Graphentheorie. Teubner, Stuttgart 1984 Alexandroff, P. S.: Einf¨ uhrung in die Mengenlehre und die Theorie der reellen Funktionen. DVW, Berlin 1967 Asser, G.: Einf¨ uhrung in die mathematische Logik. Bd. 1, 2, Teubner, Leipzig 1959, 1972 Asser, G.: Grundbegriffe der Mathematik, MfL 1, DVW, Berlin 1975 Baron, G., Kirschenhofer, P.: Einf¨ uhrung in die Mathematik f¨ ur Informatiker, Bd. 1–3. Springer-Verlag, Wien New York 1989 Berendt, G.: Mathematische Grundlagen f¨ ur Informatiker. Bd. 1, 2. BI Wissenschaftsverlag Mannheim Wien Z¨ urich 1989, 1990 B¨ ohme, G.: Einstieg in die Mathematische Logik. C. Hanser Verlag, M¨ unchen Wien 1981 B¨ ohme, G.: Algebra. Springer-Verlag, Berlin Heidelberg New York 1981 Boseck, H.: Einf¨ uhrung in die Theorie der linearen Vektorr¨ aume. DVW, Berlin 1973 Brehmer, S. Belkner, H.: Einf¨ uhrung in die analytische Geometrie und lineare Algebra. DVW, Berlin 1966 Brieskorn, E.: Lineare Algebra und analytische Geometrie I und II. Verlag Friedrich Vieweg & Sohn, Braunschweig Wiesbaden 1983, 1985 Bronstein, I. N., Semendjajew, K. A.: Taschenbuch der Mathematik. Teubner Stuttgart, Leipzig und Verlag Nauka Moskau 1991 Burris, S., Sankappanavar, H. P.: A course in universal algebra. Springer-Verlag, New York 1981 Cigler, J.: K¨ orper - Ringe - Gleichungen. Spektrum Akad. Verl., Heidelberg Berlin Oxford 1995 Dallmann, H., Elster, K.-H.: Einf¨ uhrung in die h¨ ohere Mathematik. G. Fischer Verlag, Jena 1991 Dassow, J.: Logik f¨ ur Informatiker. B. G. Teubner Verlag, Wiesbaden 2005
468
Literaturverzeichnis
[Den-T 96] [Deu 99]
[D¨ or-P 88] [Dor-M 84] [Dre 75] [Eis 80] [End 85] [End 87] [Ern 82] [Enz 68] [Fet-F 85] [Fis-G-H 84] [Fla-P 75] [Gan 70] [Gei 79] [Hei-R 73] [Hai 85] [Hei-W 92] [Hup 90] [Ihr 93] [Ihr 94] [Ihr 2002] [Ihr 2003] [Jab-L 80] [Jus 64] [Kai-M-Z 81]
Denecke, K., Todorov, K.: Allgemeine Algebra und Anwendungen. Shaker Verlag, Aachen 1996 Deutsch, M.: Einf¨ uhrung in die Grundlagen der Mathematik (Theorie der Berechenbarkeit, Mathematische Logik, Mengenlehre). Universit¨ atsdruckerei Bremen, Bremen 1999 D¨ orfler, W., Peschek, W.: Einf¨ uhrung in die Mathematik f¨ ur Informatiker, Carl Hanser Verlag, M¨ unchen Wien 1988 Dorninger, D., M¨ uller, W.: Allgemeine Algebra und Anwendungen. Teubner, Stuttgart 1984 Drews, K.-D.: Lineare Gleichungssysteme und lineare Optimierungsaufgaben. DVW, Berlin 1975 Eisenreich, G.: Lineare Algebra und geometrische Geometrie. Akademie-Verlag, Berlin 1980 Endl, K.: Analytische Geometrie und lineare Algebra. VDI Verlag, D¨ usseldorf 1985 Endl, K.: Analytische Geometrie und lineare Algebra. Aufgaben und L¨ osungen. VDI Verlag, D¨ usseldorf 1987 Ern´e, M.: Einf¨ uhrung in die Ordnungstheorie. B.I., Mannheim, 1982 Kleine Enzyklop¨ adie Mathematik (Herausgeber: W. Gellert, H. K¨ ustner, M. Hellwich, H. K¨ astner). BI Leipzig 1968 Fetzer, A., Fr¨ ankel, H. (Hrsg.): Mathematik, Lehrbuch f¨ ur Fachhochschulen, Band 1–3. VDI-Verlag, D¨ usseldorf 1985 Fischer, W., J. Gamst und K. Horneffer: Skript zur Linearen Algebra I, II. Universit¨ at Bremen, Mathematik-Arbeitspapiere, 1983, 1984 Flachsmeyer, J., Prohaska, L.: Algebra. DVW, Berlin 1975 Gantmacher F. R.: Matrizenrechnung I. DVW, Berlin 1970 Geise, G.: Grundkurs lineare Algebra, BSB B.G. Teubner, Leipzig 1979 Heinhold, J., Riedm¨ uller, B.: Lineare Algebra und Analytische Geometrie, Teil 2. Carl Hanser Verlag, M¨ unchen 1973 Hainzel, J.: Mathematik f¨ ur Naturwissenschaftler. Teubner, Stuttgart 1985 Heinemann, B., Weihrauch, K.: Logik f¨ ur Informatiker. 2. durchges. Aufl., B. G. Teubner Verlag, Stuttgart 1992 Huppert, B.: Angewandte Lineare Algebra. Walter de Gruyter & Co., Berlin New York 1990 Ihringer, Th.: Allgemeine Algebra. Teubner, Stuttgart 1993 Ihringer, Th.: Diskrete Mathematik. Eine Einf¨ uhrung in Theorie und Anwendungen. Teubner, Stuttgart 1994 Ihringer, Th.: Diskrete Mathematik. Eine Einf¨ uhrung in Theorie und Anwendungen. Korr. u. erw. Auflage, Heldermann Verlag 2002 Ihringer, Th.: Allgemeine Algebra. Mit einem Anhang u ¨ ber Universelle Coalgebra von H. P. Gumm. Heldermann Verlag 2003 Jablonski, S. W., Lupanow, O. B.: Diskrete Mathematik und Fragen der Kybernetik. Akademie-Verlag 1980 Juschkewitsch, A.P.: Geschichte der Mathematik im Mittelalter. Teubner, Leipzig 1964 Kaiser, H., Mlitz, R., Zeilinger, G.: Algebra f¨ ur Informatiker. Springer-Verlag, Wien New York 1981
Literaturverzeichnis [Kel 68] [Ker 85] [Kie-M 74] [Kin 96] [Kiy-S 91] [Kli 84] [Koc 57] [Koc 74] [Kop 88]
[Kuh 76] [Kow 65] [Kur 64] [Lau 2004] [Lau 2007] [Lid-P 82] [Lug-W 57] [Mae 84] [Mae 88] [Man-K 66] [Man-S-V 75] [Mat-S 68]
[Mat 1878] [Mes 73] [Nov 73] [Obe-W 76]
469
Keller, O.-H.: Analytische Geometrie und lineare Algebra. Akademische Verlagsgesellschaft Geest & Porting K.G., Leipzig 1968 Kerner, I. O.: Numerische Mathematik mit Kleinrechnern. Studienb¨ ucherei Mathematik f¨ ur Lehrer, Band 19, DVW, Berlin 1985 Kiesewetter, H., Maeß, G.: Elementare Methoden der numerischen Mathematik. Akademie-Verlag, Berlin 1974 King, R. B.: Beyond the Quartic Equation. Birkh¨ auser, Boston Basel Berlin 1996 Kiyek, K.-H., Schwarz, F.: Mathematik f¨ ur Informatiker, Bd. 1, 2. Teubner, Stuttgart, 1991 Klingenberg, W.: Lineare Algebra und Geometrie. Springer-Verlag, Berlin Heidelberg New York Tokyo 1984 Kochend¨ orffer, R.: Determinanten und Matrizen. Teubner, Leipzig 1957 Kochend¨ orffer, R.: Einf¨ uhrung in die Algebra. DVW, Berlin 1974 Koppelberg, S.: Handbook of Boolean Algebras I: General Theory of Boolean Algebras (ed. by J. D. Monk). North-Holland, Amsterdam 1988 Kuhnert, F.: Vorlesung u ¨ ber lineare Algebra. DVW, Berlin 1976 Kowalsky, H.-J.: Lineare Algebra. Walter de Greyter & Co., Berlin 1965 Kuros, A.G.: Vorlesungen u ¨ ber allgemeine Algebra. Teubner, Leipzig 1964 Lau, D.: Algebra und Diskrete Mathematik 1 und 2. Springer-Verlag, Berlin Heidelberg 2004 ¨ Lau, D.: Ubungsbuch zur Linearen Algebra und analytischen Geometrie. Springer-Verlag, Berlin Heidelberg 2007 Lidl, R., Pilz, G.: Angewandte Algebra I, II. Bibliographisches Institut, Mannheim Wien Z¨ urich 1982 Lugowski, H., Weinert, H.-J.: Grundz¨ uge der Algebra I–III. Teubner, Leipzig 1957, 1958, 1960 Maeß, G.: Vorlesungen u ¨ ber numerische Mathematik I. AkademieVerlag, Berlin 1984 Maeß, G.: Vorlesungen u ¨ ber numerische Mathematik II. AkademieVerlag, Berlin 1988 v. Mangoldt, H., Knopp, K.: Einf¨ uhrung in die h¨ ohere Mathematik, Bd. 1–3, S. Hirzel Verlag, Leipzig 1966, 1967, 1970 ¨ Manteuffel, K., Seifart, E., Vetters, K.: Lineare Algebra. MINOL Bd. 13, Teubner, Leipzig 1975 Mathiak, K., Stingl, P.: Gruppentheorie f¨ ur Chemiker, Physiochemiker, Mineralogen. F. Vieweg & Sohn, DVW, Braunschweig Berlin 1968 Matthiessen, L.: Grundz¨ uge der antiken und modernen Algebra der literalen Gleichungen. Teubner 1878 Meschkowski, H.: Mathematiker-Lexikon. B.I. Wissenschaftsverlag, Mannheim Wien Z¨ urich 1973 Novikov, P. S.: Grundz¨ uge der mathematischen Logik. Vieweg, Braunschweig 1973 Oberschelp, W., Wille, D.: Mathematischer Einf¨ uhrungskurs f¨ ur Informatiker. Teubner, Stuttgart 1976
470
Literaturverzeichnis
[Olv 99] [Oni-S 77] [Par 2000]
[Pic 53] [Pla 2000]
[P¨ os-K 79] [Pos-B-H 86] [Rau 96]
[Red 53] [Rei 72] [Ric 78] [Rut 76] [Sac 70] [Sch 87]
[Scr-S 2003] [Sie 73]
[Sko 73] [Ste 2001] [Ste 76] [Sto 99] [Sto 2000] [Wae 50]
Olver, P. J.: Classical Invariant Theory. London Mathematical Society Student Texts 44. Cambridge, 1999 Oniscik, A. L., Sulanke, R.: Algebra und Geometrie. DVW, Berlin 1977 Paraigis, B.: Lineare Algebra f¨ ur Informatiker. I. Grundlagen, diskrete Mathematik; II. Lineare Algebra. Springer-Verlag, Berlin Heidelberg 2000 Pickert, G.: Analytische Geometrie. Akademische Verlagsgesellschaft Geest & Portig K.G., Leipzig 1953 Plato, R.: Numerische Mathematik kompakt. Grundlagenwissen f¨ ur Studium und Praxis. Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig Wiesbaden 1996 P¨ oschel, R., Kaluˇznin, L. A.: Funktionen- und Relationenalgebren. DVW, Berlin 1979 Posthoff, C., Bochmann, D., Haubold, K.: Diskrete Mathematik. Teubner, Leipzig 1986 Rautenberg, W.: Einf¨ uhrung in die Mathematische Logik. Ein Lehrbuch mit Ber¨ ucksichtigung der Logikprogrammierung. Friedr. Vieweg & Sohn Verlagsgesellschaft mbH, Braunschweig Wiesbaden 1996, 2. verb. und erw. Aufl. Vieweg 2002 Redei, L.: Algebra I. Akademische Verlagsgesellschaft Geest & Portig K.G., Leipzig 1953 Reichardt, H.: Vorlesung u ¨ ber Vektor- und Tensorrechnung. DVW, Berlin 1972 Richter, M. M.: Logikkalk¨ ule. B. G. Teubner Verlag, Stuttgart 1978 Rutishauser, H.: Vorlesungen u ¨ ber Numerische Mathematik. Band 1 und 2. Birkh¨ auser Verlag, Basel 1976 Sachs, H.: Einf¨ uhrung in die Theorie der endlichen Graphen I. Teubner, Leipzig 1970 Sch¨ oning, U.: Logik f¨ ur Informatiker. B.I. Hochschultaschenb¨ ucher, Mannheim Wien Z¨ urich 1987. 5. Aufl. Spektrum Akademischer Verlag, Mannheim 2000 Scriba, C., Schreiber, P.: 5000 Jahre Geometrie. Springer-Verlag 2001 Sieber, N., Sebastian, H.-J., Zeidler, G.: Grundlagen der Mathe¨ Bd. 1. Teubner, matik, Abbildungen, Funktionen, Folgen. MINOL Leipzig 1973 Skornjakow, L. A.: Elemente der Verbandstheorie. Akademie-Verlag, Berlin 1973 Steger, A.: Diskrete Strukturen 1. Kombinatorik, Graphentheorie, Algebra. Springer-Verlag, Berlin Heidelberg 2001 Stetter, H. J.: Numerik f¨ ur Informatiker. Computergerechte numerische Verfahren. R. Oldenbourg Verlag, M¨ unchen Wien 1976 Stoer, J.: Numerische Mathematik 1. Springer-Verlag, Berlin Heidelberg 1999 Stoer, J.: Numerische Mathematik 2. Springer-Verlag, Berlin Heidelberg 2000 van der Waerden, B. L.: Algebra I, II. Springer-Verlag, Berlin G¨ otingen Heidelberg 1950
Literaturverzeichnis [Vie 72] [Wag-B 89] [Whi 64] [Wil 76] [Wuß-A 89] [Wuß 89] [Zur 65]
471
Vierecke, H.: Einf¨ uhrung in die klassische Algebra. DVW, Berlin 1972 Wagner, K., Bodendiek, R.: Graphentheorie I–III, BI-Verlag, Mannheim 1989, 1990, 1993 Whitesitt, J. E.: Boolesche Algebren und ihre Anwendungen. F. Vieweg & Sohn, Braunschweig, 1964 Wilson, R. J.: Einf¨ uhrung in die Graphentheorie. Vanderhoeck und Ruprecht, G¨ ottingen 1976 Wußing, H., Arnold, W.: Biographien bedeutender Mathematiker. Volk u. Wissen, Berlin 1989 Wußing, H.: Vorlesungen zur Geschichte der Mathematik. DVW, Berlin 1989 Zurm¨ uhl, R.: Praktische Mathematik f¨ ur Ingenieure und Physiker. 5. Aufl., Springer-Verlag, Berlin Heidelberg New York 1965
Glossar
∧. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 ∨. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 ¬. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 =⇒ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 ⇐⇒ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 := . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 :⇐⇒ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 ∃.....................................3 ∃! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 ∀.....................................3 ∈. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 ∈. / . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 ··· | ···...............................5 N .................................... 6 N0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 P.. . .. . . . .. . . . .. . . . .. . . .. . . . .. . . . .. . . .6 Z. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 Q .................................... 6 R .................................... 6 C .................................... 6 [a, b] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 [a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 (a, b] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 (a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 X0+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 X + . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 ∅.....................................9 ⊆ .................................... 9 = .................................... 9 = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 ⊂ .................................... 9 P(A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2|M | . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
∩ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 ∪ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 \ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 △ T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Si∈I Ai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Ti∈I Ai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 SA∈S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 A∈S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 × . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 = N.n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Qni=1 Ai . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 i=1 Ai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Ai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 aRb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 ≤R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
474
Glossar
a → b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 f|A0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 idA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Rf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 ∧K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 [a] + [b] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 [a] · [b]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 A ∼ B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 |A| . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 cardA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 ℵ0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30 c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 ℵ1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30 B A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 f (n) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 non(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 ∧ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 ∨ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 + . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 =⇒ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 ¬ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 ⇐⇒ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 xα . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 δ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 V ar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 F(n) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 J . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 ∃ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 ∀ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 J0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 T (V ar) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 F ORM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 V ar(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 V ar(ϕ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 f r(ϕ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 bd(ϕ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .48 A := (A; (fi )i∈I , (Rj )j∈J ) . . . . . . . . . . . . 49 u e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 =xk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 vA,u . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 A(ϕ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 A |= ϕ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 V (G). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 E(G). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
fG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 d(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 V (G). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 E(G). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 fG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 ◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 (A) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 ◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 "H# . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 ≈ = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 (E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 (I) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 (E’) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 (I’) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 ◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 x−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 −x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Pn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 a ⊓ b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Dn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 a0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 a−n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 ord G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 "U # . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 x ◦ U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 U ◦ x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 |G : U | . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 kerf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 G/N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 (D) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Re z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Im z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 |z|. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .87 z n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .90 ∧ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 ∨ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 ≤ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 supA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 infA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 (D1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 (D2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Glossar (B1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 (B2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 (B3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 B⊕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 R⊕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 LGS (*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 I(s) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 |aij |n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 sign s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Aij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Aj . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Vn (x1 , . . . , xn ). . . . . . . . . . . . . . . . . . . . . .125 (aij )m,n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 K m×n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 (A, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 Om,n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 En . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Dn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 detA, |A| . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 |A| . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 + . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 · . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 Dn,s,t;λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Ds,t;λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 A−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 λ · A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 rg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 LGS (**). . . . . . . . . . . . . . . . . . . . . . . . . . .143 L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 L0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 VR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 (V1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 (V2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 + . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 a · a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 K V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 K m×n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 −x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 LK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Pn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 f + g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .158 c · f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 C[a, b]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
475
R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 |a| . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 ab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 a ↑↑ b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 a ↑↓ b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 − → V2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 − → V3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 → − V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .160 a + b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 λ · a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 UVR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 [M ] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 U P1n+ U2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 i=1 Ui . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 U1 ⊕ . . . ⊕ Un . . . . . . . . . . . . . . . . . . . . . . 163 ˙ . . . +U ˙ n . . . . . . . . . . . . . . . . . . . . . . . 163 U1 + l.u. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 l.a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 dim K V . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 l.u. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 l.a. u ¨ ber U . . . . . . . . . . . . . . . . . . . . . . . . . 175 ≈ = . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 a/B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 `0´ .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 . M(B, B ′ ) . . . . . . . . . . . . . . . . . . . . . . . . . . 183 P + a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 Q − P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 g(P, Q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 ε(P, Q, R) . . . . . . . . . . . . . . . . . . . . . . . . . 185 − −→ P Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 + . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 (R1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 (R2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 (R3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Q − P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 − −→ P Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 X/S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 `1´ .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 . P + W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 E(P1 , . . . , Pr+1 ) . . . . . . . . . . . . . . . . . . . . 196 l.u. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 E (1) + . . . + E (t) . . . . . . . . . . . . . . . . . . . 196
476
Glossar
dim (P + W ) . . . . . . . . . . . . . . . . . . . . . . . 197 EE ′ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 ∠(a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 a ⊥ b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 j . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 k . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 a · b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 b′ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 b′′ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 ℓ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 ϕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 (S1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 (S2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 (S3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 Aϕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 | · |, |a| . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 (N1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 (N2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 (N3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 (N4) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 a2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 a∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 a1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 aϕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 ̺(X, Y ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 (M1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 (M2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 (M3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 (M4) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 ∠(a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 a ⊥ b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 ONV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 < x, y > . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 M ⊥ N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 M ⊥ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 a × b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 (a × b) · c . . . . . . . . . . . . . . . . . . . . . . . . . . 237 Ror . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 d(P, Q). . . . . . . . . . . . . . . . . . . . . . . . . . . . .241 d(M, N ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 Sp(P0 , . . . , Pk ) . . . . . . . . . . . . . . . . . . . . . 244 En;r,s (α) . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 EW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 LA (λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 EV. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .256 LiA (λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 vEV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Grad(pn ). . . . . . . . . . . . . . . . . . . . . . . . . . .260 D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 r(λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 EA (λ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . .271 µa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 µg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 Jn (λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 Jn⋆j (aj , bj ) . . . . . . . . . . . . . . . . . . . . . . . . . 293 J2·n (z, z) . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 D(a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330 f (V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 Af . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332 Af (BV , BW ) . . . . . . . . . . . . . . . . . . . . . . . 332 rg f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 Ker f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 def f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 Rf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 V/U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
f ⋆ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 A⋆ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 fb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 EV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .348 BV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 FV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 Inv G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 → f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 A1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 A2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 A3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 x e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .362 ∆x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 ∆(x ◦ y) . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 f1 (x) = O(f2 (x)) . . . . . . . . . . . . . . . . . . . 364 M(p, l, m) . . . . . . . . . . . . . . . . . . . . . . . . . . 366 γ b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 R∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 Rmin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 γ e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 (M(p, J l, m); γ) . . . . . . . . . . . . . . . . . . . . . . 368 x y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 x∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 limn→∞ xn . . . . . . . . . . . . . . . . . . . . . . . . . 375 x2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 x∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 x1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 Li (x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
Index
Abbildung, 23 adjungierte, 339 affine, 351 antiselbstadjungierte, 345 bijektive, 25 Bild der, 24 eindeutige, 23 eineindeutige, 24 Einschr¨ ankung, 24 Fixpunkt, 373 homomorphe, 329 identische, 24 injektive, 24 isometrische, 345 lineare, 329 normale, 341 orthogonale, 345 selbstadjungierte, 344 surjektive, 25 unit¨ ar diagonalisierbare, 348 unit¨ are, 345 Urbild der, 24 Abbildungsmatrix, 332 Abel, N. H., 62, 266 Abschluß, 63, 75 absoluter Fehler, siehe Fehler Abstand im affinen Raum, 241 abz¨ ahlbar (unendlich), 31 Addition modulo n, 27 adjazent, 52 Adjunkte, 118 ahnliche Matrizen, 255 ¨ ¨ Ahnlichkeitsabbildung, 355
¨ Ahnlichkeitsfaktor, 355 ¨ Ahnlichkeitsgeometrie, 356 aquivalente Formeln, 50 ¨ ¨ Aquivalenz, 38 ¨ Aquivalenz von Relationen und Pr¨ adikaten, 35 ¨ Aquivalenzklasse, 18 Vertreter, 27 ¨ Aquivalenzrelation, 16 affine Abbildung, 351 affiner Raum, 189 Abstand, 241 Achsenrichtungen, 191 affiner Unterraum, 193 Ebene, 193 Gerade, 193 Hyperebene, 193 allgemeine Lage, 196 euklidischer, 241 k-Ebene, 193 Koordinatensystem, 191 kartesisches, 245 Koordinatenursprung, 191 Lot, 242 paralleler, 197 senkrechter, orthogonaler, 200 unit¨ arer, 241 Verbindung, 196 Winkel zwischen a und b, 199 Affinit¨ at, 355 algebraische Gleichung in x, 260 antisymmetrisch, 15 asymmetrisch, 15
478
Index
Asymptote, 322 Atom, 47 Ausdruck, siehe Term Aussage, 37 ¨ Aquivalenz, 38 Disjunktion, 37 Implikation, 38 Konjunktion, 37 Kontravalenz, 37 Negation, 37 Bahn, siehe Weg Bairstow-Verfahren, 389 Banach, S., 375 Banach-Raum, 375 Bessel, F. W., 228 Besselsche Ungleichung, 227 Bewegung, 355 Bewertung, 49 bijektiv, 25 bilinear, 210 Bilinearform, 210 hermitische, 211 positiv definite, 211 symmetrische, 211 bin¨ are Funktion, 35 Bisektionsverfahren, 379 Block, 19 Boolesche Funktion, 35 Boolesche Algebra, 96 Boolescher Ring, 100 Cantor, G., 4 Cardanische Formel, 265 Cardano, G., 265 Cauchy, A. L., 217 Cauchy-Schwarzsche Ungleichung, 202, 217 Cayley, A., 77, 269 charakteristisches Polynom, 259 Cohen, P. J., 35 Cramer, G., 120 Cramersche Regel, 120 de Moivre, A., 90 Defekt einer linearen Abbildung, 335 Definitionsbereich, 22 del Ferro, S., 265 Determinante, 109, 110, 112
diagonal dominant, 401 diagonalisierbar, 254 Diagonalk¨ astchen, 254 Differenz, 10 disjunkt, 10 Disjunktion, 37 disjunktive Normalform, 41 DNF, 41 Durchschnitt, 10 Eigenraum, 256 Eigenvektor einer linearen Abbildung, 342 Eigenvektor (EV), 256 Eigenwert einer linearen Abbildung, 342 Eigenwert (EW), 256 Einheitsvektor, 200 Einleseabbildung, 367 einschaliges Hyperboloid, 325 Element, siehe Menge elementare Jordan-Matrix, 283 Ellipse, 318 Ellipsoid, 325 elliptischer Zylinder, 324 elliptisches Paraboloid, 327 Endknoten, 52 endlich, 31 Endomorphismus, 254 Erlanger Programm, 349 Euklid, 70 Euklidischer Algorithmus, 70 Euler, L., 10 Eulersche Linie, 55 exakter Wert, siehe Fehler Exponent, siehe Maschinenzahlen Faktorgruppe, 81 Faktormenge, 21 Falk, S., 131 Falksches Schema, 131 Fehler absoluter, 362 exakter Wert, 362 Modell-, 362 N¨ aherungswert, 362 relativer, 362 Rundungs-, 362 Verfahrens-, 363
Index Fehler bei den Ausgangsdaten, siehe Modellfehler Fehler durch Rechnen mit Maschinenzahlen, siehe Rundungsfehler Fixpunkt, siehe Abbildung Fl¨ ache, 297 Folge Grenzwert, 375 konvergent, 375 FORM, 47 Formel, siehe Term aquivalente, 50 ¨ durch u erf¨ ullte, 50 in A wahre, 50 Formel, abgeschlossene, 48 Formel, offene, 48 Formeln der Pr¨ adikatenlogik erster Stufe, 48 Fundamentalsatz der Algebra, 260 Funktion, 23 Gauß, C. F., 146, 403 Gauß-Algorithmus, 146, 393 Gauß-Schritt, 392 Gauß-Seidel-Verfahren, 403 Geometrie affine, 356 geordnetes Paar, 14 ggT, siehe gr¨ oßter gemeinsamer Teiler gleichm¨ achtig, siehe Menge gleichorientierte Basen, 238 gr¨ oßter gemeinsamer Teiler, 69 Grad d(x), 52 Gradientenverfahren, 411 Gram, J. P., 212 Gramsche Matrix, 212 Graph, 51 adjazenter, 52 Adjazenzmatrix, 127 einfach, 52 Endknoten, 52 endlicher, 52 Eulersche Linie, 55 Ger¨ ust, 56 gerichteter, 53 Grad, 52 inzidenter, 52 isolierter Knoten, 52 Kante, 52
479
Knoten, 52 Mehrfachkante, 52 Minimalger¨ ust, 55, 56 Schlinge, 52 spannender Teil-, 54 stark zusammenh¨ angender, 55 Teil-, 54 ungerichteter, 52 zusammenh¨ angender, 55 Grenzwert, siehe Folge Gruppe, 66 Abschluß, 75 Dieder-, 71 Faktor-, 81 Index, 80 Nebenklasse, 79 Normalteiler, 79 Ordnung von a, 75 Ordnung von G, 75 prime Restklassen modulo n, 69 Restklassen modulo n, 68 symmetrische, 67 Unter-, 76 Haar, A., 416 Haarsche Bedingung, 416 Halbgruppe, 60 Einselement, 62 homomorphe Abbildung, 65 homomorphes Bild, 65 Homomorphismus, 65 isomorphe, 65 kommutative, 62 Nullelement, 62 Unter-, 62 halblogarithmischen Darstellung, siehe Maschinenzahlen Hamilton, W. R., 269 Hasse, H., 17 Hasse-Diagramm, 17 Hauptachsentransformation, 314 Hermite, C., 211 hermitisch, 211 Hesse, L. O., 204 Hessesche Form, 204, 205 Hintereinanderausf¨ uhrung, siehe Verkettung homogen, 108 Homomorphismus, 65
480
Index
Horner, W. G., 263 Horner-Schema, 263, 386 zweizeiliges, 387 Hyperbel, 321 Asymptoten, 322 Hyperbelfunktionen, 322 hyperbolischer Zylinder, 325 hyperbolisches Paraboloid, 327 Hyperebene, siehe affiner Raum Hyperfl¨ ache 2. Ordnung, 297 einschaliges Hyperboloid, 325 Ellipsoid, 325 elliptischer Zylinder, 324 elliptisches Paraboloid, 327 Fl¨ ache, 297 hyperbolischer Zylinder, 325 hyperbolisches Paraboloid, 327 Kegel, 324 Kurve, 297 Mittelpunkt, 300 nichtausgeartete Kegelschnitte, 316 parabolischer Zylinder, 326 quadratische Form, 299 singul¨ ares Gebilde, 300 zweischaliges Hyperboloid, 326 Implikation, 38 Index, 80 Infimum, 94 inhomogen, 108 Injektion, 24 injektiv, 24 inneres Produkt, 211 Interpolationspolynom Lagrangesches, 417 Newtonsches, 418 Interpolationsproblem, 415 Invariante einer Gruppe aus affinen Abbildungen, 355 Invariante von G, 349 inverse Korrespondenz, siehe Korrespondenz inverses Element, 62 Inversion, 111 invertierbar, 62 inzident, 52 irreflexiv, 15 isolierter Knoten, 52
Isometrie, 345 isomorph, 99, 179 isomorphe Graphen, 54 Jacobi-Verfahren, 401 Jordan, M. E. C., 283 Jordan-K¨ astchen, 283 Jordan-Matrix, 283 Jordansche Normalform, 283 k-Ebene, siehe affiner Raum K¨ orper, 83 der komplexen Zahlen, 84 Kantenfolge, 54 geschlossene, 54 Kreis, 55 offene, 54 Weg, 55 Kardinalzahl, 30 kartesisches Koordinatensystem, 245 kartesisches Produkt, 14 Kegel, 324 Kern, 81 Kern einer linearen Abbildung, 334 Kette, 94, 170 maximales Element, 170 Klasseneinteilung, siehe Zerlegung Klein, F., 349, 357 kompatibel, 26 Komplement, 11 komplexe Zahlen, 84 Betrag, 87 Eulersche Formel, 93 Exponentialdarstellung, 93 imagin¨ are Einheit, 85 Imagin¨ arteil, 85 komplexe Zahlenebene, 86 konjugierte, 87 Moivresche Formel, 90 Realteil, 85 trigonometrische Darstellung, 87 Kondition, 399 gute, 399 schlechte, 399 Kongruenz, 27, 355 Kongruenz modulo n, 21 Kongruenzgeometrie, 356 Konjunktion, 37 Kontravalenz, 37
Index konvergent, siehe Folge Koordinatensystem kartesisches, 245 Korrespondenz, 21 aus A in B, aus A auf B, von A in B, von A auf B, 22 Definitionsbereich, 22 inverse, Umkehr-, 22 Verkettung, 22 Wertebereich, 22 Kosinussatz, 202 Kreis, 55 Kronecker, L., 222 Kurve, 297 Lagrange, J. L., 80 Lagrangekoeffizienten, 417 Laguerre, E., 385 Landausches O-Symbol, 363 leere Menge, 9 LGS, siehe lineares Gleichungssystem nichttriviale L¨ osung, 121 triviale L¨ osung, 121 Light, F. W., 63 linear, 15 abh¨ angig u ¨ ber U , 175 unabh¨ angig u ¨ ber U , 175 lineare Abbildung, 254, 329 adjungierte, 339 antiselbstadjungierte, 345 Defekt, 335 diagonalisierbare, 254 isometrische, 345 Kern, 334 normale, 341 orthogonale, 345 Rang, 333 selbstadjungierte, 344 unit¨ ar diagonalisierbare, 348 unit¨ are, 345 lineare Glieder, 299 lineare H¨ ulle, 162 lineares Gleichungssystem (LGS), 107 aquivalentes, 145 ¨ Absolutglieder, 108 allgemeine Pivotisierung, 393 diagonal dominant, 401 Gauß-Algorithmus, 146 Gauß-Schritt, 392
481
homogenes, 108 inhomogenes, 108 Koeffizienten, 108 Kondition, 399 gute, 399 schlechte, 399 Pivotelement, 152, 393 Pivotgleichung, 392 Pivotisierung, 392 Unbekannte, 108 Zeilen- bzw. Spaltenpivotisierung, 393 Linearkombination (LK), 158 Linkssystem, 232 Lipschitz, R., 376 Lipschitz-Bedingung, 376 Lot, 229, 242 M¨ achtigkeit, Kardinalzahl, 30 Mantisse, siehe Maschinenzahlen Maschinenzahlen, 366 Basis, 366 halblogarithmischen Darstellung, 366 Exponent, 366 Mantisse, 366 Matrix, 126 ¨ Ahnlichkeitsrelation, 255 ahnliche, 255 ¨ Addition, 130 Additions-, 133 Adjazenz-, 127 charakteristisches Polynom, 259 Diagonal-, 129 diagonalisierbare, 254 Eigenraum, 256 Eigenvektor, 256 Eigenwert, 256 Einheits-, 129 elementare Jordan-Matrix, 283 erweiterte Koeffizienten-,System-, 127 Gleichheit, 129 inverse, 137 Jordan-Matrix, 283 Jordansche Normalform, 283 Koeffizienten-, 127 Multiplikation, 130 Multiplikation mit Skalar, 138 Normalform, 255 Null-, 129
482
Index
orthogonale, 246 Permutations-, 133 quasi-diagonalisierbare, 255 Rang, 139 regul¨ are, 134 singul¨ are, 134 Spur, 268 symmetrische, 137 transponierte, 137 Trapez-, 140 unit¨ are, 246 Unterdeterminante, 139 verallgemeinerter Eigenraum, 256 verallgemeinerter Eigenvektor, 256 verkettete, 130 Matrixnorm, 394 Menge, 4 u ahlbare, 31 ¨ berabz¨ abz¨ ahlbare, 31 echte Teil-, 9 Element, 4 endliche, 31 Faktor-, 21 leere, 9 Ober-, 9 partiell geordnete, siehe Poset Potenz-, 9 Teil-, 9 total geordnete, siehe Kette unendliche, 31 Zerlegung, 19 Mengen disjunkte, 10 gleichm¨ achtige, 28 Mengenoperationen Differenz, 10 Durchschnitt, 10 kartesisches Produkt, 14 Komplement, 11 symmetrische Differenz, 11 Vereinigung, 10 Methode der Intervallhalbierung, siehe Bisektionsverfahren Mittelpunkt einer Hyperfl¨ ache, 300 Modell einer Formel (Formelmenge), 50 Modellfehler, siehe Fehler Moivresche Formel, 90 Monoid, 62 Multiplikation modulo n, 27
N¨ aherungswert, siehe Fehler Nebenklasse, 79 Negation, 37 Neville, E. H., 419 Neville-Algorithmus, 419 Newton, I., 380 Newton-Verfahren, 380, 388 nichtausgeartete Kegelschnitte, 316 Normalform einer Matrix, 255 Normalkomponente, 203 Normalteiler, 79 Nullstelle, 260 k-fache, 264 Nullteiler, 83 Obermenge, 9 Operation, 26 Operator, 23 Ordnung, 75 irreflexive teilweise, 16 lineare, 16 reflexive teilweise, 16 totale, 16 Orientierung einer Basis, 238 orthogonale Matrix, 246 orthogonale Projektion, 229 orthogonales Komplement, 229 Orthogonalsystem, 222 parabolischer Zylinder, 326 Parallelkomponente, 203 Parseval, M.-A., 228 Parsevalsche Gleichung, 228 Partition, siehe Zerlegung Permutation, 67 Pivotelement, 152, 393 Pivotgleichung, 392 Pivotisierung, 392 Pl¨ ucker, J., 236 Pl¨ uckersche Form, 236 Polynom, 158, 260 algebraische Gleichung, 260 Grad, 260 Koeffizienten, 260 Wurzel, Nullstelle, 260 Poset, 94 Potenzmenge, 9 Pr¨ adikat, 35
Index Prinzip vom ausgeschlossenen Dritten, 37 Produkt, siehe Verkettung Projektion auf Hyperebenen, 409 Punkt, 159, 189 quadratische Form, 299 quasi-diagonalisierbar, 255 Quine-McCluskey-Verfahren, 41 Quotienten-Differenzen-Algorithmus (QD-Algorithmus), 390 Rang, 333 Rang einer linearen Abbildung, 333 Raum metrischer, 242 Rechtssystem, 232 Referenz, 415 reflexiv, 15 regul¨ ar, 134 Regula falsi erste Form, 382 zweite Form, 382 Regula-falsi-Newton-Verfahren, 383 Relation, 15 ¨ Aquivalenz-, 16 antisymmetrische, 15 asymmetrische, 15 bin¨ are, 15 ¨ induzierte Aquivalenz-, 25 irreflexive, 15 lineare, 15 reflexive, 15 symmetrische, 15 transitive, 15 relativer Fehler, siehe Fehler Ring, 82 kommutativer, 83 Nullteiler, 83 nullteilerfreier, 84 Rundungsfehler, siehe Fehler Russell’sches Paradoxon, 6 Sarrus, P.-F., 110 Schmidt, E., 223 Schmidtsches Orthonormierungsverfahren (ONV), 223 Schwarz, H. A., 217 Seidel, L., 403
483
Signatur, 47 singul¨ ar, 134 singul¨ ares Gebilde, 300 Skalarprodukt, 200, 210 Standard-, 211 spannender Teilgraph, 54 Spat, 237, 244 Steinitz, E., 172 Struktur, 49 Supremum, 94 surjektiv, 25 symmetrisch, 15, 211 symmetrische Differenz, 11 Tartaglia, 265 Tautologie, 40 Teiler gr¨ oßter gemeinsamer, 69 Teilformel, 48 Teilmenge, 9 echte, 9 Teilverh¨ altnis, 356 Term, 38, 47 gleiche, ¨ aquivalente, gleichwertige, 39 Thalessatz, 202 Tr¨ agermenge einer Struktur, 49 transitiv, 15 Tupel, 14 n-Tupel, 14 u ahlbar, 31 ¨ berabz¨ Umkehrkorrespondenz, siehe Korrespondenz unendlich, 31 unit¨ are Matrix, 246 Untergruppe, 76 Untervektorraum A-invarianter, 256 A-unzerlegbarer, 256 A-zerlegbarer, 256 Vandermonde, A. T., 125 Vandermondesche Determinante, 125 Variable freie, 48 gebundene, 48 Vektor, 157 Betrag, 160 Einheits-, 200
484
Index
Koordinaten, 181 linear abh¨ angig u ¨ ber U , l.a. u ¨ber U , 175 linear abh¨ angig, l.a., 165 linear unabh¨ angig u ¨ ber U , l.u. u ¨ ber U , 175 linear unabh¨ angig, l.u., 164 Lot, 229 Normalen-, 236 normierter, 200, 221 Null-, 159 orthogonale Projektion, 229 Repr¨ asentant, 160 Skalarprodukt, 200, 210 Standard-, 211 Spatprodukt, 237 Vektorprodukt, 232 Vektoren negativ orientierte, 232 orthogonale, 221 orthonormierte, 222 positiv orientierte, 232 Vektorprodukt, 232, 239 Vektorraum, 157 Basis, 166 ¨ Ubergangsmatrix, 183 Orientierung, 238 Basis u ¨ ber U , 175 Dimension, 173 euklidischer, 199, 212 gleichorientierte Basen, 238 isomorpher, 179 lineare H¨ ulle, 162 Linearkombination (LK), 158 Norm, 218 euklidische, 219 Maximum-, 219 normierter Raum, 218 orientiert, 239 orthogonal, 228 orthogonale Projektion, 229
orthogonales Komplement, 229 Parallelverschiebung, 159 unit¨ arer, 199, 212 Unter-, 161 direkte Summe, 163 Projektion, 163 Summe, 163 Verschiebung, 159 Venn, J., 10 verallgemeinerter Eigenraum, 256 verallgemeinerter Eigenvektor (vEV), 256 Verband, 93 distributiver, 96 erste Definition, 93 zweite Definition, 94 Vereinigung, 10 Verfahren der konjugierten Gradienten, 412 Verfahrensfehler, siehe Fehler verkettete Matrizen, 130 Verkettung, 22 Verkn¨ upfung, 26 a ¨ußere, 26 innere, 26 kompatible, 26 agliche, 26 vertr¨ vertr¨ aglich, 26 Vi`ete, F., 267 Vietascher Wurzelsatz, 267 vollst¨ andige Induktion, 7 Weg, 55 Wertebereich, 22 Wurzel, 260 Zerlegung, 19 Block einer, 19 Zorn, M. A., 170 zweischaliges Hyperboloid, 326 Zyklus, siehe Kreis