Lineare Algebra und analytische Geometrie I & II
Vorlesung von Prof. C. B¨ar
Potsdam, Wintersemester 2004/05 und Somme...
135 downloads
1494 Views
1MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Lineare Algebra und analytische Geometrie I & II
Vorlesung von Prof. C. B¨ar
Potsdam, Wintersemester 2004/05 und Sommersemester 2005 Stand vom 1. November 2005
Inhaltsverzeichnis 1 Mengen und Abbildungen
1
2 Geometrie der Ebene, Teil 1
7
3 Gruppen
17
4 K¨ orper
21
5 Vektorr¨ aume
33
6 Basen
43
7 Summe von Untervektorr¨ aumen
51
8 Gruppenhomomorphismen
55
9 Lineare Abbildungen
59
10 Matrizen
65
11 Affine Unterr¨ aume und affine Abbildungen
69
12 Die allgemeine lineare Gruppe
73
13 Lineare Gleichungsysteme
77
14 Geometrie der Ebene, Teil 2
83
15 Codierungstheorie
95
16 Matrixdarstellung linearer Abbildungen
99
17 Geometrie im Raum
109
18 Determinanten
119
19 Orientierungen
133
20 Volumina
137
21 Eigenwerte
153
22 Ringe
169
23 Polynome
177
iv
INHALTSVERZEICHNIS
24 Trigonalisierung
187
25 Das Minimalpolynom
193
26 Die Jordan’sche Normalform
201
27 Bilinearformen
209
28 Euklidische Vektorr¨ aume
227
29 Orthogonale Endomorphismen
235
30 Selbstadjungierte Endomorphismen
243
31 Unit¨ are Endomorphismen
247
32 Dualr¨ aume
249
33 Dualr¨ aume und Skalarprodukte
257
34 Quotientenvektorr¨ aume
261
Symbolverzeichnis
264
Index
266
Kapitel 1
Mengen und Abbildungen Mathematische Aussage werden heutzutage in der Regel in der Sprache der Mengenlehre formuliert. Daher wollen wir zun¨ achst einige mengentheoretische Grundbegriffe besprechen. 1.1 Definition (Cantor). Eine Menge ist eine Zusammenfassung bestimmter, ” wohlunterschiedener Objekte unserer Anschauung oder unseres Denkens zu einem Ganzen.“ 1.2 Beispiele. 1) die leere Menge {} = ∅, also diejenige Menge, die kein Element enth¨ alt 2) die Menge N = {0, 1, 2, 3, . . .} der nat¨ urlichen Zahlen 3) die Menge Z = {. . . − 3, −2, −1, 0, 1, 2, 3, . . .} der ganzen Zahlen 4) die Menge Q = { qp | p, q ∈ Z, q 6= 0} der rationalen Zahlen 5) die Menge R der reellen Zahlen Konstruktionen. Wir erinnern uns einiger elementarer Begriffe der Mengenlehre, wie etwa der Inklusion oder Teilmengen-Relation: Seien A, B Mengen, dann heißt A Teilmenge von B bzw. B Obermenge von A, falls jedes Element von A auch Element von B ist; also in Zeichen: A ⊂ B :⇔ B ⊃ A :⇔ ∀a ∈ A gilt: a ∈ B Hierbei deutet das Symbol :⇔ an, dass die linke Seite durch die rechte definiert wird. Wollten wir die rechte Seite durch die linke definieren, w¨ urden wir dementsprechend das Symbol ⇔: verwenden. Das Symbol ∀ ist als f¨ ur alle“ zu lesen. Ferner bedeutet ” ∃ es gibt ein“ oder es existiert ein“. ” ” 1.3 Beispiel. Wir haben folgende Inklusionen der Zahlbereiche: N⊂Z⊂Q⊂R 1.4 Bemerkung. Zwei Mengen A, B heißen gleich, wenn jedes Element von A auch Element von B und jedes Element von B auch Element von A ist, d.h.: A = B :⇔ A ⊂ B und B ⊂ A 1.5 Definition. Sei A eine Menge. Dann ist die Potenzmenge P(A) die Menge aller Teilmengen von A, d.h.: P(A) := {B | B ⊂ A}
2
Kapitel 1. Mengen und Abbildungen
¨ Ahnlich wie bei dem Symbol :⇔ deutet := an, dass die Menge auf der linken Seite durch die rechte Seite definiert wird. 1.6 Beispiel. Die leere Menge ∅ hat genau eine Teilmenge, n¨ amlich die leere Menge selbst. Die Potenzmenge der leeren Menge hat daher genau ein Element, n¨ amlich die leere Menge. Somit ist P(∅) = {∅}. Insbesondere ist die Potenzmenge von ∅ nicht leer, P(∅) 6= ∅. Ferner erinnern wir uns einiger elemtarer Operationen, die aus gegebenen Mengen A und B neue Mengen erzeugen: 1) Die Schnittmenge A∩B zweier Mengen A und B ist die Menge aller Elemente, die sowohl in A als auch in B enthalten sind, d.h.: A ∩ B := {a | a ∈ A und a ∈ B} 2) Die Vereinigung A ∪ B zweier Mengen A und B ist die Menge aller Elemente, die in A oder in B enthalten sind, d.h. A ∪ B := {a | a ∈ A oder a ∈ B} 3) Die Mengendifferenz A − B = A\B zweier Mengen A und B ist die Menge aller Elemente von A, die nicht Elemente von B sind, d.h.: A − B := {a | a ∈ A und a 6∈ B} 1.7 Bemerkung. Das oder“ wird in der Mathematik immer als nicht ausschließ” liches oder“ verwendet. Das bedeutet f¨ ur die Vereinigung: ” A∩B ⊂A∪B 1.8 Definition. Seien A1 , . . . , An Mengen. Dann ist das kartesische Produkt A1 × . . . × An die Menge der geordneten n-Tupel mit Elementen aus A1 bis An , d.h.: A1 × . . . × An := {(a1 , . . . , an ) | a1 ∈ A1 , . . . , an ∈ An }
1.9 Bemerkung. Beachte, dass die Tupel geordnet sind, dass also die Reihenfolge von Bedeutung ist: Sei z.B. A1 = A2 = N; dann sind die Tupel (0, 1) und (1, 0) Elemente von A1 × A2 , und (0, 1) 6= (1, 0) ∈ A1 × A2 . 1.10 Bemerkung. Man schreibt das n-fache kartesische Produkt einer Menge A mit sich selbst auch als An , d.h.: A × . . . × A ⇔: An Mitunter schreibt man n-Tupel n A =
auch als Spalten statt Zeilen, d.h.: a1 .. ai ∈ A, i = 1, . . . , n . . an
1.11 Definition. Seien A und B Mengen. Eine Abbildung f : A → B ist eine Vorschrift, die jedem Element a ∈ A genau ein Element f (a) ∈ B zuordnet.
3 1.12 Beispiele.
1) f : Z → N, x 7→ x2
2) f : R × R → R, (x, y) 7→ x + y ( 1 falls x ∈ Q 3) f : R → N, f (x) := 0 falls x 6∈ Q 4) f = idA : A → A, a 7→ a. Diese Abbildung heißt identische Abbildung von A oder Identit¨at von A. 1.13 Definition. Sei f : A → B eine Abbildung und A0 ⊂ A eine Teilmenge. Dann heißt die Menge f (A0 ) := {f (a) ∈ B | a ∈ A0 }
die Bildmenge von A0 unter f oder kurz: das Bild von A0 unter f . Zu einer Teilmenge B 0 ⊂ B heißt die Menge f −1 (B 0 ) := {a ∈ A | f (a) ∈ B 0 } die Urbildmenge oder kurz: das Urbild von B 0 unter f . 1.14 Beispiel. Sei A := R × R und B := R und f die Abbildung f : A → B, (x, y) 7→ x + y . Sei ferner A0 ⊂ A die Menge A0 := {(0, y) | y ∈ R} und B 0 ⊂ B die Menge {0}. Dann ist das Bild von A0 unter f die Menge: f (A0 ) = {f (0, y) | y ∈ R} = {0 + y | y ∈ R} =R
Ferner ist das Urbild von B 0 unter f die Menge: f −1 (B 0 ) = {(x, y) ∈ R × R | f (x, y) = 0} = {(x, y) ∈ R × R | x + y = 0} .
1.15 Definition. Seien f : A → B und g : B → C zwei Abbildungen. Die Verkettung oder Komposition g ◦ f von g mit f ist die durch g ◦ f : A → C, (g ◦ f )(a) := g(f (a)) definierte Abbildung. 1.16 Definition. 1) Eine Abbildung f : A → B heißt surjektiv, falls es zu jedem b ∈ B ein a ∈ A mit f (a) = b gibt, d.h. falls gilt: f (A) = B. 2) Eine Abbildung f : A → B heißt injektiv, falls wann immer f (a1 ) = f (a2 ) gilt f¨ ur a1 , a2 ∈ A, folgt dass a1 = a2 . In anderen Worten: Ist a1 6= a2 , so muss auch f (a1 ) 6= f (a2 ) sein. 3) Eine Abbildung f : A → B heißt bijektiv, falls f surjektiv und injektiv ist. 1.17 Satz. Sei f : A → B eine Abbildung und A 6= ∅. Dann gilt: 1) f ist surjektiv ⇔ ∃ Abb. g : B → A so dass f ◦ g = id B . 2) f ist injektiv ⇔ ∃ Abb. g : B → A so dass g ◦ f = idA . 3) f ist bijektiv ⇔ ∃ Abb. g : B → A so dass g ◦ f = id A und f ◦ g = idB .
4
Kapitel 1. Mengen und Abbildungen
Beweis: 1) ⇐“: Es gebe eine Abbildung g : B → A, so dass f ◦ g = idB . Zu zeigen ist ” also: f ist surjektiv. Sei nun b ∈ B ein beliebiges Element; gesucht ist also ein Urbild von b unter f . Wir setzen a := g(b). Dann gilt: f (a) = f (g(b)) = (f ◦ g)(b) = idB (b) = b . Somit ist a ein Urbild von b unter f und folglich f surjektiv. ⇒“: Sie nun f surjektiv. Zu zeigen ist also die Existenz einer Abbildung g wie ” oben in 1) angegeben. Konstruiere g wie folgt: Zu b ∈ B w¨ ahle ein ab ∈ A mit f (ab ) = b. Dies ist m¨ oglich, da f nach Voraussetzung surjektiv ist. Setze nun g(b) := ab . Dann gilt f¨ ur jedes beliebige b ∈ B: (f ◦g)(b) = f (g(b)) = f (ab ) = b. Somit ist also f ◦ g = idB . 2) ⇐“: Es gebe eine Abbildung g : B → A, so dass g ◦ f = idA . Zu zeigen ist ” also: f ist injektiv. Seien nun a1 , a2 ∈ A mit f (a1 ) = f (a2 ). Dann folgt: g(f (a1 )) = g(f (a2 )) =⇒ (g ◦ f )(a1 ) = (g ◦ f )(a2 ) =⇒ idA (a1 ) = idA (a2 ) =⇒ a1 = a2 Somit ist f injektiv. ⇒“: Sei nun f injektiv. Zu zeigen ist also die Existenz einer Abbildung g wie ” oben in 2) angegeben. Konstruiere g wie folgt: W¨ ahle ein beliebiges Element a0 ∈ A. Definiere die Abbildung g abschnittsweise wie folgt: ( a0 falls b ∈ / f (A) g(b) := das eindeutige a ∈ A mit f (a) = b falls b ∈ f (A) Dann gilt f¨ ur jedes a ∈ A: (g ◦ f )(a) = g(f (a)) = a , denn offenbar ist f (a) ∈ f (A). Folglich ist also g ◦ f = idA . 3) ⇐“: Es existiere eine Abbildung g : B → A wie oben in 3) angegeben. Zu ” zeigen ist also: f ist bijektiv. Nach 1) folgt aus f ◦ g = idB , dass f surjektiv ist. Nach 2) folgt ferner aus g ◦ f = idA , dass f injektiv ist. Folglich ist f bijektiv. ⇒“: Sei nun f bijektiv. Zu zeigen ist also die Existenz einer Abbildung g wie ” oben in 3) angegeben. Nach 1) und 2) gilt: 1)
f bijektiv =⇒ f surjektiv =⇒ ∃g1 : B → A mit f ◦ g1 = idB 2)
f bijektiv =⇒ f injektiv =⇒ ∃g2 : B → A mit g2 ◦ f = idA Es bleibt noch zu zeigen: g1 = g2 . Wir verketten dazu g2 von rechts und g1 von links mit der Identit¨ at von B bzw. A und erhalten: g2 = g2 ◦ idB = g2 ◦ (f ◦ g1 ) = (g2 ◦ f ) ◦ g1 = idA ◦ g1 = g1 Somit ist g1 = g2 die gesuchte Abbildung g. 2
5 1.18 Bemerkung. Dieses letzte Argument zeigt, dass im Fall 3) die Abbildung g : B → A eindeutig bestimmt ist. 1.19 Definition. Sei f : A → B eine bijektive Abbildung. Dann heißt die eindeutig bestimmte Abbildung g : B → A mit f ◦ g = idB und g ◦ f = idA die Umkehrabbildung von f . Man schreibt auch f −1 anstelle von g. 1.20 Bemerkung. Beachte, dass das Symbol f −1 in unterschiedlichen Kontexten verschiedene Bedeutungen haben kann! Im Fall einer bijektiven f : A → B ist die Abbildung f −1 : B → A die Umkehrabbildung. Hingegen ist f¨ ur eine beliebige Abbildung f : A → B die Menge f −1 (B 0 ) das Urbild von B 0 ⊂ B unter f . Im Fall einer bijektiven Abbildung f : A → B sind die beiden Notationen konsistent, denn das Urbild von B 0 ⊂ B unter f ist genau das Bild von B 0 unter der Umkehrabbildung f −1 . Um die Anzahlen“ der Elemente zweier Mengen A und B zur vergleichen, muss man ” die jeweiligen Elemente der beiden Mengen aufeinander beziehen“ k¨ onnen. Zwei ” Mengen A und B haben genau dann gleich viele“ Elemente, wenn jedem Element ” a ∈ A genau ein Element in B und jedem Element b ∈ B genau ein Element a ∈ A entspricht. Dies f¨ uhrt zu folgender Definition: 1.21 Definition. Zwei Mengen A, B heißen gleichm¨achtig , falls es eine bijektive Abbildung f : A → B gibt. 1.22 Beispiel. Die Mengen A = N und B = Z sind gleichm¨ achtig. Wir definieren eine Abbildung f : N → Z abschnittsweise wie folgt: ( a falls a gerade 2 f (a) := a+1 falls a ungerade − 2
Folglich sind N und Z gleichm¨ achtig, obwohl N ( Z.
¨ 1.23 Ubung. Geben Sie die Umkehrabbildung von f an. 1.24 Definition. Sei f : A → B eine Abbildung und A0 ⊂ A eine Teilmenge. Die Einschr¨ankung von f auf A0 ist die durch f |A0 : A0 → B, f |A0 (a0 ) := f (a0 ) ∀a0 ∈ A0 definierte Abbildung.
6
Kapitel 1. Mengen und Abbildungen
Kapitel 2
Geometrie der Ebene, Teil 1 Wir betrachten R = 2
(
x1 x2
! ) ur die Ebene. x1 , x2 ∈ R als Modell f¨
x2 +
x=
x1 x2
!
+ x1
Zu x =
x1 x2
!
x + y :=
y1 y2
,y=
x1 + y 1 x2 + y 2
!
∈ R2 und t ∈ R definiere:
!
x+y
x
y
sowie
t · x :=
tx1 tx2
!
tx
x |
|
1
t
2.1 Bemerkung. ∀x, y, z ∈ R2 und t, t0 ∈ R gilt: 1) (x + y) + z = x + (y + z) 2) x + y = y + x 3) 0 + x = x, wobei 0 ∈ R definiert ist als 0 := 2
0 0
!
.
8
Kapitel 2. Geometrie der Ebene, Teil 1
4) Zu x gibt es ein −x ∈ R so dass x + (−x) = 0, n¨ amlich −x = 2
−x1 −x2
!
.
x
−x 5) t · (t0 · x) = (tt0 ) · x 6) 1 · x = x 7) t · (x + y) = t · x + t · y
8) (t + t0 ) · x = t · x + t0 · x
ty
y
t(x + y)
x+y
tx
x
2.2 Definition. Eine Gerade in der Ebene ist eine Teilmenge von R2 der Form: Ga,v = {a + tv | t ∈ R} , wobei a, v ∈ R2 , v 6= 0.
a
v
Ga,v
2.3 Bemerkung. W¨ are v = 0 zugelassen, so w¨ are Ga,0 = {a}, was offensichtlich nur ein einzelner Punkt ist. 2.4 Lemma. Sei Ga,v eine Gerade und p ∈ Ga,v ; dann gilt: Ga,v = Gp,v . Beweis:
Aus p ∈ Ga,v folgt: ∃t0 mit p = a + t0 v.
9 a) Wir zeigen Ga,v ⊂ Gp,v : Sei q ∈ Ga,v , dann ∃t ∈ R so dass q = a + tv. Wir setzen p ein und erhalten: q = a + tv = (p − t0 v) + tv 1)
= p − t0 v + tv 2)
= p + tv − t0 v 8)
= p + (t − t0 )v ∈ Gp,v b) Wir zeigen Gp,v ⊂ Ga,v : Sei q ∈ Gp,v , dann ∃t ∈ R so dass q = p + tv. Wir setzen a ein und erhalten: q = p + tv = (a + t0 v) + tv 1)
= a + t0 v + tv 8)
= a + (t0 + t)v ∈ Ga,v 2 2.5 Lemma. Sei G ⊂ R2 eine Gerade, und seien a, b ∈ Ga,b und a 6= b. Dann ist G = Ga,b−a . Beweis: Das obige Lemma impliziert: G = Ga,v mit einem geeigneten v ∈ R2 , v 6= 0. Da b ∈ G = Ga,v folgt: ∃t0 ∈ R so dass b = a + t0 v. Da a 6= b folgt t0 6= 0. a) Wir zeigen: Ga,b−a ⊂ Ga,v : Sei q ∈ Ga,b−a , dann ∃t ∈ R so dass q = a+t(b−a). Wir setzen b = a + t0 v ein und erhalten: q = a + t(b − a) = a + t((a + t0 v) − a) 1)
= a + t(a + t0 v − a) 2)
= a + t(a − a + t0 v) 4)
= a + t(t0 v) 5)
= a + (tt0 )v ∈ Ga,v b) Wir zeigen: Ga,v ⊂ Ga,b−a : Sei q ∈ Ga,v , dann ∃t ∈ R so dass q = a + tv. Wir l¨ osen b = a + t0 v nach v auf und erhalten v = t10 (b − a) (beachte, dass t0 6= 0). Damit erhalten wir f¨ ur q: q = a + tv = a + t(
t 1 5) (b − a)) = a + (b − a) ∈ Ga,b−a t0 t0 2
2.6 Bemerkung. Eine Gerade G wird somit durch 2 verschiedene Punkte, die auf ihr liegen, festgelegt. ! ! x1 y1 2.7 Definition. Zu x = ,y= ∈ R2 definiere das Skalarprodukt x2 y2 durch: hx, yi := x1 y1 + x2 y2
10
Kapitel 2. Geometrie der Ebene, Teil 1
2.8 Bemerkung. Das Skalarprodukt ist eine Abbildung h·, ·i : R2 × R2 → R, (x, y) 7→ hx, yi. Es gelten f¨ ur alle x, x0 , y ∈ R2 und f¨ ur jedes t ∈ R folgende Eigenschaften: 1) hx + x0 , yi = hx, yi + hx0 , yi 2) htx, yi = thx, yi 3) hx, yi = hy, xi 4) hx, xi ≥ 0 und hx, xi = 0 ⇔ x = 0 . 2.9 Definition. Zu x ∈ R2 definiere die Norm von x durch p kxk := hx, xi Es gilt: 1) ∀x ∈ R2 : kxk ≥ 0 und kxk = 0 ⇔ x = 0 2) ∀x ∈ R2 , ∀t ∈ R : ktxk = |t| · kxk, denn: √ p p p ktxk = htx, txi = t2 hx, xi = t2 hx, xi = |t| · kxk
2.10 Satz (Cauchy-Schwarz-Ungleichung(CSU)). F¨ ur alle x, y ∈ R2 gilt: |hx, yi| ≤ kxk · kyk Beweis: kxk · kyk
(2.1)
Wir berechnen zun¨ achst f¨ ur die Differenz der Quadrate beider Seiten: 2
− |hx, yi|
2
= kxk2 · kyk2 − hx, yi2 = hx, xihy, yi − hx, yi2
= (x21 + x22 )(y12 + y22 ) − (x1 y1 + x2 y2 )2
= x21 y12 + x21 y22 + x22 y12 + x22 y22 − (x21 y12 + 2x1 y1 x2 y2 + x22 y22 ) = x21 y22 + x22 y12 − 2x1 y1 x2 y2 = (x1 y2 − x2 y1 )2 ≥0.
Somit ist kxk · kyk
2
2 ≥ |hx, yi| . Da die Funktion
f : {t ∈ R | t ≥ 0} → {t ∈ R | t ≥ 0}, t 7→
√ t
monoton ist, bleibt die Ungleichung erhalten, wenn man auf beiden Seiten die Wurzel zieht. Somit gilt: kxk · kyk ≥ |hx, yi|. 2 2.11 Bemerkung. Eine Funktion f : R → R heißt monoton, falls gilt: t1 ≥ t2 =⇒ f (t1 ) ≥ f (t2 ) . 2.12 Korollar. F¨ ur alle x, y ∈ R2 gilt: kx + yk ≤ kxk + kyk .
(2.2)
11 Beweis:
Wir berechnen: kx + yk
2
= hx, xi + hx, yi + hy, xi + hy, yi = kxk2 + 2hx, yi + kyk2
≤ kxk2 + 2kxk · kyk + kyk2 = (kxk + kyk)2 .
Wendet man nun wieder die Wurzelfunktion an, so erh¨ alt man kx + yk ≤ kxk + kyk. 2 2.13 Definition. Zu x, y ∈ R2 ist der euklidische Abstand von x und y definiert durch: d(x, y) := kx − yk . (2.3) 2.14 Korollar. Sind x, y, z ∈ R2 , so gilt die Dreiecksungleichung: d(x, z) ≤ d(x, y) + d(y, z) .
(2.4)
z x y
Beweis:
Wir berechnen:
d(x, z) = kx − zk = k(x − y) + (y − z)k ≤ kx − yk + ky − zk = d(x, y) + d(y, z) . 2 2.15 Lemma. Sei G ⊂ R2 eine Gerade, und seien a, b ∈ G, a 6= b. Dann existiert genau ein Punkt c ∈ G, so dass gilt: d(a, c) = d(b, c) F¨ ur diesen Punkt c gilt ferner: c=
1 (a + b) 2
und
d(a, c) = d(b, c) =
1 d(a, b) . 2
b
c
a
Beweis: Wir wissen, dass die Gerade G beschrieben werden kann als G = Ga,b−a . Das bedeutet also: ein beliebiger Punkt q ∈ G kann geschrieben werden als q = a + t · (b − a) f¨ ur ein geeignetes t ∈ R. Wir berechnen nun: d(a, q) = ka − qk = ka − (a + t · (b − a))k = k(−t) · (b − a)k = |t| · kb − ak
12
Kapitel 2. Geometrie der Ebene, Teil 1
und analog: d(b, q) = kb − qk
= kb − (a + t · (b − a))k = kb − a − t · b + t · ak = k(1 − t) · (b − a)k = |1 − t| · kb − ak .
Daraus folgt: d(a, q) = d(b, q) ⇐⇒ |t| · kb − ak = |1 − t| · kb − ak a6=b
⇐⇒ |t| = |1 − t|
⇐⇒ t2 = (1 − t)2 = 1 − 2t + t2 ⇐⇒ 0 = 1 − 2t 1 ⇐⇒ t = 2 ur q ein, so erh¨ alt man q = a + 21 (b − a) = Setzt man nun t = 21 in die Darstellung f¨ 1 ur die Abst¨ ande berechnen wir nun: 2 (a + b). F¨ 1 1 d(a, (a + b)) = ka − (a + b)k 2 2 1 1 = k a − bk 2 2 1 = ka − bk 2 1 = d(a, b) 2 und analog: 1 1 d(b, (a + b)) = kb − (a + b)k 2 2 1 1 = k b − ak 2 2 1 = d(b, a) 2 1 = d(a, b) . 2 2 2.16 Definition. Der Punkt 12 (a + b) heißt Mittelpunkt von a und b. (Diese Definition ist auch im Fall a = b zul¨ assig.) 2.17 Definition. Ein Parallelogramm ist ein 4-Tupel (a, b, c, d) von Punkten a, b, c, d ∈ R2 , so dass c − a = d − b. c
d
a
b
13 2.18 Bemerkung. Ist (a, b, c, d) ein Parallelogramm, so ist immer b − a = d − c, denn: c − a = d − b ⇐⇒ c − a + b = d ⇐⇒ b − a = d − c . 2.19 Definition. Ein Parallelogramm (a, b, c, d) heißt nicht entartet, falls keine drei Punkte auf einer Geraden liegen. 2.20 Beispiele. Entartete Parallelogramme: ~ a=b=c=d ~ a = b, c = d ~
a c b d 2.21 Satz (Diagonalensatz). In einem nicht entarteten Parallelogramm halbieren sich die Diagonalen gegenseitig. c
d
a
b Beweis: Der Mittelpunkt der Diagonalen von a nach d ist 12 (a + d), und der Mittelpunkt der Diagonalen von b nach c ist dementsprechend 21 (b + c). Zu zeigen ist also: 12 (a + d) = 21 (b + c). Wir berechnen dazu: 1 1 1 (a + d) − (b + c) = (a + d − b − c) 2 2 2 1 = (−(c − a) + (d − b)) 2 =0. 2 2.22 Bemerkung. Dieser Satz ist f¨ ur allgemeine Vierecke falsch, wie die folgende Skizze eindr¨ ucklich illustriert:
d
c
a
b 2.23 Definition. Ein Dreieck ist ein Tripel (a, b, c) von Punkten a, b, c ∈ R2 . Ein Dreieck (a, b, c) heißt nicht entartet, falls a, b, c nicht auf einer Geraden liegen. 2.24 Beispiele. Entartete Dreiecke ~ a=b=c ~
a=b
c
14
Kapitel 2. Geometrie der Ebene, Teil 1
~
a
c
b
2.25 Definition. Sei (a, b, c) ein nicht entartetes Dreieck. Eine Seitenhalbierende ist eine Gerade durch eine der Ecken a, b, c des Dreiecks und den Mittelpunkt der gegen¨ uberliegenden Seite. b
a
1 2 (b
+ c)
c 2.26 Satz (Schwerpunktsatz). Sei (a, b, c) ein nicht entartetes Dreieck; dann gilt: Die drei Seitenhalbierenden schneiden sich in dem Punkt 31 (a + b + c). Beweis: Die Seitenhalbierende durch a ist die Gerade durch a und den Mittelpunkt 21 (b + c) von b und c, d.h. die Gerade Ga, 21 (b+c)−a . Somit ist jeder Punkt ur ein q auf dieser Seitenhalbierenden von der Form q = a + t · ( 12 (b + c) − a) f¨ geeignetes t ∈ R. Wir zeigen nun: 31 (a + b + c) ∈ Ga, 21 (b+c)−a . Wir w¨ ahlen dazu in q den Parameter t = 23 und erhalten: 1 1 1 2 1 q = a + ( (b + c) − a) = · a + · b + · c . 3 2 3 3 3 Demnach liegt der Punkt 31 (a + b + c) auf dieser Seitenhalbierenden. Analog zeigt man, dass der Punkt 13 (a + b + c) auf den beiden anderen Seitenhalbierenden liegt (beachte: der Ausdruck 13 (a + b + c) ist symmetrisch in a, b, c, daher folgt diese Behauptung schon, indem man schlicht die Bezeichnung der Ecken vertauscht). 2 2.27 Definition. Dieser Punkt 13 (a+b+c) heißt Schwerpunkt des Dreiecks (a, b, c). (Die Definition ist auch f¨ ur entartete Dreiecke zul¨ assig.) 2.28 Bemerkung. Der Abstand einer Ecke a des Dreiecks (a, b, c) zum Schweragt: punkt 13 (a + b + c) betr¨ 1 1 d(a, (a + b + c)) = ka − (a + b + c)k 3 3 2 1 1 = k a − b − ck 3 3 3 1 = k2a − b − ck . 3 Der Abstand des Schwerpunkts 13 (a + b + c) zu dem der Ecke a gegen¨ uberliegenden Seitenmittelpunkt 12 (b + c) betr¨ agt: 1 1 1 1 d( (a + b + c), (b + c)) = k (a + b + c) − (b + c)k 3 2 3 2 1 1 1 = k a − b − ck 3 6 6 1 = k2a − b − ck . 6 Demnach gilt: 1 1 1 d(a, (a + b + c)) = 2d( (a + b + c), (b + c)) , 3 3 2 d.h. die Seitenhalbierenden dritteln sich.
15 2.29 Bemerkung. Seien x, y ∈ R, x 6= 0, y 6= 0; dann gilt: hx, yi |hx, yi| CSU kxk · kyk = kxk · kyk ≤ 1 ,
und folglich:
hx, yi ∈ [−1, 1] . kxk · kyk 2.30 Bemerkung. Die Kosinusfunktion cos : [0, π] → [−1, 1] ist bijektiv. Also existiert eine Umkehrabbildung arccos : [−1, 1] → [0, π]. 2.31 Definition. Seien x, y ∈ R2 , x 6= 0, y 6= 0. Dann heißt ^(x, y) := arccos(
hx, yi ) kxk · kyk
der Innenwinkel von x und y. 2.32 Beispiele. ~ F¨ ur x = y finden wir: ^(x, y) = arccos arccos(1) = 0.
hx,xi kxk2
=
x=y ~ F¨ ur y = −x finden wir: ^(x, y) = arccos( hx,−xi kxk2 ) = arccos(−1) = π. π −x
x
~ Falls hx, yi = 0, so ist der Innenwinkel ^(x, y) = arccos(0) = sind orthogonal.
π 2,
d.h. x und y
y
π 2
x
2.33 Bemerkung. Der Winkel wird hier immer im Bogenmaß angegeben. Das π Bogenmaß ist dem Winkelmaß in Grad proportional, und zwar gilt: 1◦ := 180 . 2.34 Satz (Kosinussatz). Sei (a, b, c) ein nicht entartetes Dreieck. Sei α der Winkel an der Ecke a, d.h. α = ^(b − a, c − a). b a
α c
Dann gilt: d(b, c)2 = d(a, b)2 + d(a, c)2 − 2d(a, b) · d(a, c) · cos(α) Insbesondere ist der Winkel α durch die 3 Seitenl¨angen d(a, b), d(a, c), d(b, c) festgelegt.
16
Kapitel 2. Geometrie der Ebene, Teil 1
Beweis:
Wir berechnen: 2
d(b, c) − d(a, b)2 − d(a, c)2 = hb − c, b − ci − ha − b, a − bi − ha − c, a − ci
= hb, bi − 2hb, ci + hc, ci − ha, ai − 2ha, bi + hb, bi − ha, ai − 2ha, ci + hc, ci = 2 − hb, ci − ha, ai + ha, bi + ha, ci = 2 ha, b − ai + ha − b, ci
= 2(−hc, b − ai + ha, b − ai) = −2hc − a, b − ai
= −2ka − ck · kb − ak · cos(α) = −2d(a, b) · d(a, c) · cos(α)
2 2.35 Folgerung (Satz des Pythagoras). Sei (a, b, c) ein nicht entartetes Dreieck mit Winkel ^(b − a, c − a) = π2 . Dann gilt: d(b, c)2 = d(a, b)2 + d(a, c)2 Beweis:
Dies folgt unmittelbar aus dem Kosinussatz, denn cos( π2 ) = 0.
2
2.36 Satz (Rhombensatz). Die vier Seiten eines nicht entarteten Parallelogramms sind genau dann gleich lang, wenn sich die beiden Diagonalen senkrecht schneiden. c
d
a
b Beweis: Sei (a, b, c, d) ein nicht entartetes Parallelogramm. Setze v := (b − a) und w := (c − a). Die Diagonalen des Parallelogramms sind (d − a) = (v + w) und (c − b) = (v − w). F¨ ur den Innenwinkel der beiden Diagonalen ^(v + w, v − w) berechnen wir das Skalarprodukt von v + w und v − w: hv + w, v − wi = hd − a, c − bi
= hv, vi − hv, wi + hw, vi − hw, wi = kvk2 − kwk2 .
Somit ist das Skalarprodukt der Diagonalen genau dann gleich 0 (und folglich die Diagonalen orthogonal), wenn die Seiten v und w gleiche L¨ ange haben. 2
Kapitel 3
Gruppen 3.1 Definition. Eine Gruppe ist ein Paar (G, ·), wobei G eine Menge ist und · : G × G → G,
(a, b) 7→ a · b
upfung, die folgende Eigenschaften hat: eine Abbildung, genannt Verkn¨ (G1) (Assoziativgesetz):
∀a, b, c ∈ G gilt : (a · b) · c = a · (b · c)
(G2) Es gibt ein Element e ∈ G, so dass gilt: a) ∀a ∈ G : e · a = a. b) ∀a ∈ G ∃a0 ∈ G : a0 · a = e.
Man nennt ein solches Element e neutrales Element; a0 heißt zu a inverses Element. 3.2 Bemerkung. Beachte, dass das Kommutativgesetz a · b = b · a nicht verlangt wird! 3.3 Satz. Sei (G, ·) eine Gruppe mit neutralem Eelement e. Dann gilt: 1) Das neutrale Element ist eindeutig.
2) ∀a ∈ G : a · e = a. 3) ∀a ∈ G : das zu a inverse Element ist eindeutig. Man schreibt das zu a inverse Element als a−1 statt a0 . 4) ∀a ∈ G : a · a0 = e.
Beweis:
4) Sei a ∈ G und sei a0 ein zu a inverses Element, also ein Element mit a0 · a = e. Zu zeigen: a · a0 = e. Sei dazu a00 ein zu a0 inverses Element, d.h. ein Element mit a00 · a0 = e (ein solches Element existiert nach (G2b). Dann berechnen wir: a · a0
(G2a)
= =
(G1)
=
(G1)
=
(G2b)
=
(G2a)
=
=
e · (a · a0 ) (a00 · a0 ) · (a · a0 ) a00 · (a0 · (a · a0 )) a00 · ((a0 · a) · a0 ) a00 · (e · a0 ) a00 · a0 e
18
Kapitel 3. Gruppen 2) Sei a ∈ G und a0 ein zu a inverses Element, d.h. a0 · a = e. Wir berechnen: a · e = a · (a0 · a) (G1)
= (a · a0 ) · a
4)
= e·a
=a
3) Sei e˜ ein weiteres neutrales Element, d.h. ∀a ∈ G : e˜ · a = a. Zu zeigen: e˜ = e. Wenden wir diese Eigenschaft auf a = e an, so erhalten wir: e˜ · e = e. Anderseits gilt nach 2) aber: e˜ · e = e˜ und folglich e˜ = e. 3) Zu a ∈ G seien a0 und a ˜0 inverse Elemente, d.h. a0 · a = a ˜0 · a = e. Zu zeigen: a0 = a ˜0 . Wir berechnen: 2)
a ˜0 = a ˜0 · e 4)
=a ˜0 · (a · a0 )
(G1)
= (˜ a0 · a) · a0 = e · a0 = a0
2 3.4 Notation. Das Zeichen ∃ bedeutet: es existiert (mindestens) ein ... Dagegen bedeutet das Zeichen ∃!, d.h.: es existiert ein und nur ein ... 3.5 Satz. Sei (G, ·) eine Gruppe, und seien a, b ∈ G. Dann gilt: 1) ∃!x ∈ G so dass gilt: x · a = b. 2) ∃!y ∈ G so dass gilt: a · y = b. 3) (a−1 )−1 = a 4) (a · b)−1 = b−1 · a−1 Beweis: 1) Wir beweisen die Eindeutigkeit von x: Sei x ∈ G mit x · a = b. Dann gilt: x=x·e
= x · (a · a−1 ) = (x · a) · a−1 = b · a−1
Eine L¨ osung x der obigen Gleichung ist also notwendig von der Form x = b·a−1 und somit eindeutig. Um die Existenz eines x mit x · a = b zu beweisen, zeigen wir, dass x := b · a−1 diese Gleichung erf¨ ullt: Wir berechnen: x · a = (b · a−1 ) · a
= b · (a−1 · a) =b·e =b
19 2) Analog beweisen wir zun¨ achst die Eindeutigkeit: Sei y ∈ G mit a · y = b. Dann folgt analog zu 1): y = a−1 · b, und folglich ist ein solches y eindeutig bestimmt. Die Existenz folgt wie in 2) durch einsetzen des Kandidaten aus dem Eindeutigkeitsbeweis: setze y := a−1 · b. Dann folgt: a · y = a · a−1 · b = b. 3) (a−1 )−1 ist das – nach dem vorangegangenen Satz eindeutige (!) – Element mit (a−1 )−1 · a−1 = e. Anderseits gilt aber: a · a−1 = e, und folglich ist a ein zu a−1 inverses Element. Die erw¨ ahnte Eindeutigkeit des inversen Elementes impliziert also: a = (a−1 )−1 . 4) Es ist zu zeigen: b−1 · a−1 ist zu a · b invers. Wir berechnen: (b−1 · a−1 ) · (a · b) = b−1 · (a−1 · (a · b))
= b−1 · ((a−1 · a) · b) = b−1 · (e · b) = b−1 · b =e
Folglich ist b−1 · a−1 ein zu a · b inverses Element. Dieses ist nach dem vorangegangenen Satz eindeutig, d.h. b−1 · a−1 = (a · b)−1 . 2 3.6 Beispiele. ~ (G, ·) = (Z, +) ist eine Gruppe: (G1) gilt offensichtlich, und (G2) gilt mit e = 0 und a−1 = −a. ~ (G, ·) = (Q, +) ist ebenfalls eine Gruppe mit neutralem Element 0 und a−1 = −a. ~ (G, ·) = (R, +) ist ebenfalls eine Gruppe, wiederum mit neutralem Element 0 und a−1 = −a. ~ (G, ·)!= (R2 , +) ist eine Gruppe, ! denn (G1),(G2) gelten nach 2.1, mit 0 = −x 0 1 . und x−1 = −x := −x2 0 ~ (G, ·) = (N, +) ist keine Gruppe, denn zu a ∈ N, a 6= 0 gibt es kein inverses Element in N. ~ (G, ·) = (Q − {0}, ·) ist eine Gruppe, denn (G1) ist offensichtlich erf¨ ullt und (G2) gilt mit e = 1 und a−1 = a1 . ~ (G, ·) = (Q, ·) ist keine Gruppe, denn zu 0 ∈ Q gibt es kein inverses Element. ~ (G, ·) = ({a ∈ Q | a > 0}, ·) ist eine Gruppe: (G1) gilt offensichtlich. (G2a) gilt mit e = 1. F¨ ur (G2b) beachte, dass a > 0 =⇒ a1 > 0. Man pr¨ uft dann leicht nach, dass wie in (Q − {0}, ·) gilt: a1 ist inverses Element zu a. ~ (G, ·) = (Z−{0}, ·) ist keine Gruppe, denn zu a ∈ Z−{0}, a ∈ / {−1, 1} existiert kein inverses Element. ~ Sei M 6= ∅ eine nichtleere Menge. Definiere: S(M ) := {f : M → M | f bijektiv} . Dann ist (G, ·) = (S(M ), ◦) eine Gruppe:
20
Kapitel 3. Gruppen (G1) ist erf¨ ullt: die Komposition von Abbildungen ist assoziativ. (G2a) gilt mit e = idM (G2b) ist erf¨ ullt: das zu f ∈ S inverse Element ist die Umkehrabbildung f −1 . (S(M ), ◦) heißt symmetrische Gruppe von M .
Speziell f¨ ur die Mengen M = {1, 2, . . . , n}, wobei n ∈ N − {0} schreibt man: S(M ) =: Sn . 3.7 Definition. Eine Gruppe (G, ·) heißt abelsch oder kommutativ, falls gilt: ∀a, b ∈ G : a · b = b · a 3.8 Bemerkung. Die Beispiele 1) – 4), 6), 8), 9) sind abelsche Gruppen. Die symmetrische Gruppe S(M ) ist im allgemeinen nicht abelsch. Wir geben hier ein einfaches Gegenbeispiel an: 3.9 Beispiel. Sei M = {1, 2, 3}; dann ist S3 folgende Abbildungen: x f (x) g(x)
S(M ) nicht abelsch: Seien n¨ amlich f, g ∈ 1 2 1
2 1 3
3 3 2
Dann ergeben sich f¨ ur die Kompositionen f ◦ g und g ◦ f : (f ◦ g)(1) = f (g(1)) = f (1) = 2 (g ◦ f )(1) = g(f (1)) = g(2) = 3 Somit ist also f ◦ g 6= g ◦ f und folglich Sn nicht abelsch.
Kapitel 4
K¨ orper 4.1 Definition. Ein K¨orper ist ein Tripel (K, +, ·), wobei K eine Menge ist und +, · : K × K → K,
+ : (a, b) → 7 a+b · : (a, b) → 7 a·b
Abbildungen sind, die folgenden Axiomen gen¨ ugen: (K1) (K, +) ist eine abelsche Gruppe mit neutralem Element 0 ∈ K. (K2) (K − {0}, ·) ist eine abelsche Gruppe mit neutralem Element 1 ∈ K − {0}. (K3) ∀a, b, c ∈ K gelten die Distributivgesetze: a) a · (b + c) = a · b + a · c.
b) (a + b) · c = a · c + b · c.
4.2 Bemerkung. Aus dem Axiom (K2) folgt insbesondere, dass die Abbildung · : K × K → K die Menge K − {0} in sich abbildet. Diese Eigenschaft bezeichnet man als Nullteilerfreiheit: Sind a, b ∈ K, a 6= 0 und b 6= 0, so ist auch a · b 6= 0. 4.3 Beispiele. 1) (K, +, ·) = (Q, +, ·) ist ein K¨ orper mit der gew¨ ohnlichen“ 0 ” und der gew¨ ohnlichen“ 1. ” 2) (K, +, ·) = (R, +, ·) ist ein K¨ orper mit der gew¨ ohnlichen“ 0 und der gew¨ ohn” ” lichen“ 1. 3) (Z, +, ·) ist kein K¨ orper, da (Z − {0}, ·) keine Gruppe ist. Notationen. Sei (K, +, ·) ein K¨ orper. Dann verwenden wir folgende Konventionen: + heißt Addition. · heißt Multiplikation ~ a · b =: ab ~ Das zu a ∈ K bzgl. der Addition inverse Element schreibe als −a. ~ Das zu a ∈ K − {0} bzgl. der Multiplikation inverse Element schreibe als ~ a + (−b) =: a − b ~ a · ( 1b ) =:
a b
~ Das bzgl. der Addition neutrale Element schreibe als 0.
1 a.
22
Kapitel 4. K¨ orper ~ Das bzgl. der Multiplikation neutrale Element schreibe als 1.
4.4 Satz. Sei (K, +, ·) ein K¨orper; dann gilt ∀c, d ∈ K: 1) 0 · c = c · 0 = 0. 2) c · (−d) = (−c) · d = −(cd). Beweis: 1) Wir bemerken zun¨ achst: 0 · c = (0 + 0) · c
(K3b) = 0·c+0·c .
Nach Satz 3.5 (mit a = 0·c, b = 0·c) besitzt die Gleichung 0·c+x = 0·c genau eine L¨ osung. Nach dem obigen ist x = 0 · c eine L¨ osung, und offensichtlich ist auch x = 0 eine L¨ osung. Die Eindeutigkeit der L¨ osung impliziert also 0 · c = 0.
Analog zeigt man: c · 0 = 0, wieder unter Benutzung des Satzes 3.5.
2) Zu zeigen: c · (−d) und (−c) · d sind additiv invers zu cd. Dies l¨ asst sich leicht nachrechnen: (K3a) 1) c · (−d) + c · d = c · (−d + d) = c · 0 = 0 . Und analog:
(−c) · d + c · d
(K3b) 1) = (−c + c) · d = 0 · d = 0 . 2
4.5 Beispiel. Der K¨ orper (C, +, ·) der komplexen Zahlen ist wie folgt definiert: Die Menge C ist C := R2 , also die uns inzwischen gut vertraute reelle Ebene. Im Kapitel 2 hatten wir auf R2 eine Addition komponentenweise erkl¨ art, und diese ist auch die Addition in (C, +, ·): Seien also x, y ∈ C; dann ist ! ! ! x1 + y 1 y1 x1 := + x+y = x2 + y 2 y2 x2 Die in 2.1 beschriebenen Eigenschaften 1) – 4) k¨ onnen wir jetzt zusammenfassen zu der Aussage: ! 0 2 (C = R , +) ist eine abelsche Gruppe mit neutralem Element 0 = . Somit 0 das Axiom (K1) erf¨ ullt. Um nun eine K¨ orper-Struktur auf C = R2 zu erkl¨ aren, ben¨ otigen wir noch eine Multiplikation, die (zusammen mit der Addition) den Axiomen (K2) und (K3) gen¨ ugt. Die komponentenweise definierte Multiplikation liefert keinen K¨ orper, denn f¨ ur diese Multiplikation gilt offensichtlich ! ! ! 1 0 0 ∗ = , 0 1 0 und das bedeutet: diese Multiplikation ist nicht nullteilerfrei! Wir definieren nun die Multiplikation auf folgende Weise: ! ! ! x1 y1 x1 y 1 − x 2 y 2 · := x2 y2 x1 y 2 + x 2 y 1 Nun u ufen wir, dass die K¨ orper-Axiome (K2) und (K3) erf¨ ullt sind: ¨berpr¨ Wir zeigen zun¨ achst, dass (K2) erf¨ ullt ist, dass also (C−{0}, ·) eine abelsche Gruppe ist:
23 (G1): Seien x, y, z ∈ C; dann berechnen wir: ! !! ! ! x1 y1 z1 x1 y 1 − x 2 y 2 · · = · x2 y2 z2 x1 y 2 + x 2 y 1
z1 z2
!
(x1 y1 − x2 y2 ) · z1 − (x1 y2 + x2 y1 ) · z2 (x1 y1 − x2 y2 ) · z2 + (x1 y2 + x2 y1 ) · z1 ! x1 y 1 z 1 − x 2 y 2 z 1 − x 1 y 2 z 2 − x 2 y 1 z 2 x1 y 1 z 2 − x 2 y 2 z 2 + x 1 y 2 z 1 + x 2 y 1 z 1
= =
F¨ ur die andere Klammerung berechnen wir analog: ! ! !! ! ! x1 y1 z1 x1 y1 z1 − y 2 z2 · · = · x2 y2 z2 x2 y1 z2 + y 2 z1 x1 · (y1 z1 − y2 z2 ) − x2 · (y1 z2 + y2 z1 ) x1 · (y1 z2 + y2 z1 ) + x2 · (y1 z1 − y2 z2 ) ! x1 y 1 z 1 − x 1 y 2 z 2 − x 2 y 1 z 2 − x 2 y 2 z 1 x1 y 1 z 2 + x 1 y 2 z 1 + x 2 y 1 z 1 − x 2 y 2 z 2
= =
!
!
Vergleicht man die Ergebnisse nun Term f¨ ur Term so sieht man, dass gilt: ∀x, y, z ∈ C : (x · y) · z = x · (y · z) .
! 1 ist ein neutrales Element f¨ ur die oben definierte Multipli(G2a): Der Vektor 0 kation, denn es gilt ∀x ∈ C: ! ! ! ! 1 x1 1 · x1 − 0 · x 2 x1 · = = . 0 x2 1 · x2 + 0 · x 1 x2 (G2b): Das zu x =
x1 x2
!
6= 0 inverse Element definieren wir durch: x1 x21 +x22 −x2 x21 +x22
1 = x−1 := x
!
.
Beachte, dass x21 + x22 > 0, da x 6= 0. Nun rechnen wir nach, dass das so definierte Element tats¨ achlich bzgl. unserer Multiplikation invers zu x ist: ! ! x1 x1 x21 +x22 −1 x ·x = · −x2 x2 x21 +x22 ! x1 2 · x1 − x−x 2 +x2 · x2 x21 +x22 1 2 = x1 2 · x1 + x−x 2 +x2 · x1 x21 +x22 1 2 ! x2 +x2 2
1
=
=
x21 +x22 −x2 x1 +x1 x2 x21 +x22
1 0
!
.
24
Kapitel 4. K¨ orper
Kommutativit¨ at: Da (C − {0}, ·) eine abelsche Gruppe sein soll, gilt es noch das Kommutativgesetz zu verifizieren, also: ∀x, y ∈ C : x · y = y · x. Wir berechnen: ! ! ! x1 y1 x1 y 1 − x 2 y 2 x·y = · = x2 y2 x1 y 2 + x 2 y 1 ! y 1 x1 − y 2 x2 = y 1 x2 + y 2 x1 ! ! y1 x1 = · . y2 x2 ugt (K3): Da die Multiplikation auf ganz C = R2 definiert und kommutativ ist, gen¨ es, eines der beiden Distributivgesetze zu pr¨ ufen. Wir zeigen also: ∀x, y, z ∈ C gilt: x · (y + z) = x · y + x · z: ! ! x1 y1 + z 1 x · (y + z) = · x2 y2 + z 2 ! x1 · (y1 + z1 ) − x2 · (y2 + z2 ) = x1 · (y1 + z1 ) + x2 · (y1 + z1 ) ! x1 y 1 + x 1 z 1 − x 2 y 2 − x 2 z 2 = x1 y 2 + x 1 z 2 + x 2 y 1 + x 2 z 1 ! ! x1 y 1 − x 2 y 2 x1 z 1 − x 2 z 2 = + x1 y 2 + x 2 y 1 x1 z 2 + x 2 z 1 ! ! ! ! z1 x1 y1 x1 · + · = z2 x2 y2 x2 =x·y+x·z . Fazit. Somit haben wir gezeigt: (C, +, ·) ist ein K¨ orper mit 0 = ! 0R und 1C = man 0C = 0R Man definiert nun:
0 0 1R 0R
!
!
i :=
und 1 =
1 0
!
. Genau genommen, m¨ usste
schreiben. Das werden wir aber nicht tun. 0 1
!
.
F¨ ur diese komplexe Zahl i berechnen wir: ! ! ! 0 0 0·0−1·1 2 = = · i =i·i= 0·1+1·0 1 1
−1 0
!
= −1 .
Jede komplexe Zahl x ∈ C l¨ asst sich in der folgenden Form schreiben: ! ! ! 1 0 x1 + x2 · = x1 · 1 + x 2 · i . = x1 · x= 1 0 x2 Man schreibt auch (etwas lax): x = x1 + x2 · i.
25 Man identifiziert eine reelle Zahl x1 ∈ R mit der komplexen Zahl x1 · 1 + 0 · i = ! x1 ∈ C. Dadurch wird R aufgefasst als Teilmenge von C, und die Additi0 on und Multiplikation von C eingeschr¨ ankt auf R ergibt genau die Addition und Multiplikation von R. 4.6 Definition. Zu einer komplexen Zahl x = x1 · 1 + x2 · i heißt x1 =: Re(x) der Realteil von x und x2 =: Im(x) der Imagin¨arteil von x.
x2
x=
x1 x2
!
Re(x) Im(x)
=
!
i +
+ 1
x1
4.7 Bemerkung. Die Multiplikation ist in dieser Schreibweise leicht zu merken. Man findet n¨ amlich: (x1 + x2 · i) · (y1 + y2 · i) = x1 y1 + x1 y2 · i + x2 · i · y1 + x2 · i · y2 · i = x 1 y 1 + x 1 y 2 · i + x 2 y 1 · i + x 2 y 2 · i2
= x1 y1 + (x1 y2 + x2 y1 ) · i + x2 y2 · (−1) = (x1 y1 − x2 y2 ) + (x1 y2 + x2 y1 ) · i .
4.8 Definition. Die Abbildung (·) : C → C,
x1 x2
!
7→
x1 −x2
!
onnen die Konjugation auch ¨ aquivalent als heißt komplexe Konjugation. Wir k¨ x = x1 + x2 · i = x 1 − x2 · i schreiben.
x2 +
Geometrisch fasst man die komplexe Konjugation als Spiegelung( an !der rellen ) Achse x R= x ∈ R auf. 0
4.9 Satz. F¨ ur alle z, w ∈ C gilt: 1) z + w = z + w.
x=
x1 x2
!
R
−x2+
x=
x1 −x2
!
26
Kapitel 4. K¨ orper 2) z · w = z · w. 3) 1 = 1, 0 = 0, i = −i. 4) (z) = z.
! w1 und berechnen: bzw. Beweis: Wir schreiben z, w ∈ C als w2 ! ! ! ! w1 z1 z1 + w 1 z1 + w 1 =z+w + 1) z + w = = = −w2 −z2 −(z2 + w2 ) z2 + w 2 z1 z2
2) z · w =
z1 w1 − z 2 w2 z1 w2 + z 2 w1
!
=
!
z1 w1 − z 2 w2 −(z1 w2 + z2 w1 )
!
F¨ ur das Produkt der Konjugierten erhalten wir: ! ! ! z1 w1 z1 w1 − (−z2 ) · (−w2 ) z·w = · = = −z2 −w2 z1 · (−w2 )(−z2 ) · w1
z1 w1 − z 2 w2 −z1 w2 − z2 w1
3) trivial 4) trivial
4.10 Definition. F¨ ur eine komplexe Zahl z =
der Absolutbetrag von z.
|z| :=
z1 z2
z1 z2
!
2 ∈ C heißt
! q
= z12 + z22
4.11 Satz. F¨ ur alle z, w ∈ C gilt: 1) |z + w| ≤ |z| + |w| 2) |z · w| = |z| · |w| 3) |z|2 = z · z¯ Beweis: 1) folgt direkt aus der entsprechenden Eigenschaft der Norm auf R2 . 2) Wir berechnen: |z · w|2 = |(z1 + z2 · i) · (w1 + w2 · i)|2
= |(z1 w1 − z2 w2 ) + (z1 w2 + z2 w1 ) · i|2 = (z1 w1 − z2 w2 )2 + (z1 w2 + z2 w1 )2
= z12 w12 − 2z1 w1 z2 w2 + z22 w22 + z12 w22 + 2z1 w2 z2 w1 + z22 w22 = z12 w12 + z22 w22 + z12 w22 + z22 w12 = (z12 + z22 )(w12 + w22 ) = |z|2 + |w|2
= (|z| · |w|)2 .
Da |z · w|, |z| · |w| ≥ 0 folgt die Behauptung durch Wurzelziehen.
!
27 3) Wir berechnen: z · z = (z1 + z2 i)(z1 − z2 i)
= z12 + z1 (−z2 i) + z2 iz1 + z2 i · (−z2 i)
= z12 − z22 · i2 = z12 + z22 = |z|2 .
2 4.12 Definition. Sei z ∈ C − {0}; dann heißt arg(z) ∈ [0, 2π) das Argument, wobei ( ^(z, 1) falls Im(z) ≥ 0 arg(z) := 2π − ^(z, 1) falls Im(z) < 0
z
arg(z) = ^(z, 1)
arg(z)
+
+
1
1 ^(z, 1) z
4.13 Satz. Sei z ∈ C, z 6= 0; dann gilt: 1) Re(z) = |z| · cos(arg(z)) 2) Im(z) = |z| · sin(arg(z)) Beweis: Die abschnittsweise Definition des Argumentes erfordert folgende Fallunterscheidung: Im(z) ≥ 0: Wir berechnen zuerst die linke Seite von 1): |z| · cos(arg(z)) = |z| · cos(^(z, 1)) hz, 1i = |z| · cos arccos |z| · |1| * ! !+ Re(z) 1 , Im(z) 0 = |z| · |z| · 1 Re(z) · 1 + Im(z) · 0 = |z| · |z| = Re(z) . Analog berechnen wir die linke Seite von 2): |z| · sin(arg(z)) = |z| · sin(^(z, 1)) hz, 1i . = |z| · sin (arccos |z| · |1|
28
Kapitel 4. K¨ orper Es gilt ∀t ∈ R : sin2 (t) + cos2 (t) = 1, und daher:
p sin2 (t) = 1 − cos2 (t) =⇒ sin(t) = ± 1 − cos2 (t) .
Aus der Voraussetzung Im(z) ≥ 0 folgt nun arg(z) = arccos(
hz, 1i ) ∈ [0, π] |z| · 1
und folglich: sin(arg(z)) ≥ 0. Wir setzen also die positive Wurzel ein und erhalten: s 2 hz, 1i |z| · sin(arg(z)) = |z| · 1 − cos arccos |z| · |1| s 2 hz, 1i = |z| · 1 − |z| · 1 p = |z|2 − (hz, 1i)2 p = (Re(z))2 + (Im(z))2 − (hz, 1i)2 v * ! !+!2 u u Re(z) 1 t , = (Re(z))2 + (Im(z))2 − Im(z) 0 p = (Re(z))2 + (Im(z))2 − (Re(z))2 p = (Im(z))2 = |Im(z)| = Im(z) ,
denn nach Voraussetzung ist Im(z) ≥ 0. Im(z) < 0: Wie oben berechnen wir zuerst die linke Seite von 1): |z| · cos(arg(z)) = |z| · cos(2π − ^(z, 1))
= |z| · cos(−^(z, 1)) = |z| · cos(^(z, 1)) hz, 1i = |z| · cos arccos |z| · |1|
= hz, 1i
= Re(z) . Analog berechnen wir nun die linke Seite von 2): |z| · sin(arg(z)) = |z| · sin(2π − ^(z, 1)) = |z| · sin(−^(z, 1)) = |z| · (− sin(^(z, 1)) = −|z| · sin(^(z, 1)) s.o. = − |Im(z)| = Im(z) ,
da nach Voraussetzung Im < 0. 2
29 4.14 Folgerung. Sei z ∈ C − {0}; dann ist das Argument von z die eindeutig bestimmte reelle Zahl ϕ ∈ [0, 2π), f¨ ur die gilt: z = |z| · (cos(ϕ) + sin(ϕ) · i) . Beweis: Der vorangegangene Satz besagt, dass ϕ = arg(z) diese Bedingung erf¨ ullt. Zu zeigen ist also: ϕ ist eindeutig. Sei nun ϕ0 ∈ [0, 2π) eine weitere Zahl mit z = |z| · (cos(ϕ) + sin(ϕ) · i) . Es ist zu zeigen: ϕ0 = ϕ = arg(z). Aus z 6= 0 folgt |z| 6= 0, und daher folgen aus z = |z| · (cos(ϕ) + sin(ϕ) · i) = |z| · (cos(ϕ0 ) + sin(ϕ0 ) · i) , die Gleichungen: 0
0
(cos(ϕ) + sin(ϕ) · i) = (cos(ϕ ) + sin(ϕ ) · i) =⇒
(
cos ϕ = cos ϕ0 sin ϕ = sin ϕ0
(4.1)
Um daraus die Behauptung ϕ = ϕ0 zu folgern, benutzen wir die Additionstheoreme: sin(ϕ − ϕ0 ) = sin ϕ · cos(−ϕ0 ) + cos ϕ · sin(−ϕ0 ) = sin ϕ · cos ϕ0 − cos ϕ · sin ϕ0 =0.
Wir erinnern uns der Nullstellen der Sinusfunktion und folgern: ∃k ∈ N : (ϕ − ϕ0 ) = k · π Ferner sind nach Voraussetzung ϕ, ϕ0 ∈ [0, 2π) und folglich (ϕ − ϕ0 ) ∈ (−2π, 2π), also k ∈ {−1, 0, 1}. Somit ist cos(ϕ − ϕ0 ) = cos(kπ) = (−1)k . Wir berechnen analog mit den Additionstheoremen: cos(ϕ − ϕ0 ) = cos ϕ · cos(−ϕ0 ) − sin ϕ · sin(−ϕ0 ) = cos ϕ · cos ϕ0 + sin ϕ · sin ϕ0 (4.1)
= cos2 (ϕ) + sin2 (ϕ)
=1 Demnach ist (−1)k = 1, k ∈ {−1, 0, 1} und folglich k = 0, also ϕ − ϕ0 = 0 · π = 0, also ϕ = ϕ0 . 2 4.15 Satz. Seien z, w ∈ C − {0}; dann gilt: ( arg(z) + arg(w) arg(z · w) = 2π − arg(z) + arg(w) Beweis:
falls arg(z) + arg(w) < 2π sonst
Schreibe arg(z) =: ϕ, arg(w) =: ψ; dann gilt nach Voraussetzung: z = |z| · (cos ϕ + sin ϕ · i) ,
w = |w| · (cos ψ + sin ψ · i)
Wir berechnen: (z · w) = |z| · (cos ϕ + sin ϕ · i) · |w| · (cos ψ + sin ψ · i)
= |z| · |w| · (cos ϕ + sin ϕ · i) · (cos ψ + sin ψ · i) = |z · w| · (cos ϕ · cos ψ + sin ϕ · i · sin ψ · i + cos ϕ · sin ψ · i + sin ϕ · i · cos ψ) = |z · w| · (cos ϕ · cos ψ − sin ϕ · sin ψ) + (cos ϕ · sin ψ + sin ϕ · cos ψ) · i = |z · w| · (cos(ϕ + ψ) + sin(ϕ + ψ) · i) .
30
Kapitel 4. K¨ orper
Nun gilt nach Voraussetzung ϕ, ψ ∈ [0, 2π) =⇒ ϕ + ψ ∈ [0, 4π). Falls ϕ + ψ < 2π, so ist ϕ + ψ ∈ [0, 2π) und es gilt nach obiger Rechnung: z · w = |z · w| · (cos(ϕ + ψ) + sin(ϕ + ψ) · i) . Nach 4.14 gibt es genau eine solche Zahl im Intervall [0, 2π), n¨ amlich das Argument von z · w. Somit ist also (ϕ + ψ) = arg(Z). Falls ϕ + ψ ≥ 2π, so ist (ϕ + ψ − 2π) ∈ [0, 2π) und erf¨ ullt: z · w = |z · w| · (cos(ϕ + ψ − 2π) + sin(ϕ + ψ − 2π) · i) . Foglich ist nach 4.14 dann (ϕ + ψ − 2π) = arg(z · w).
2
4.16 Bemerkung. Aus diesem Satz ergibt sich folgende geometrische Interpretation der Multiplikation in C: ~ Die Betr¨ age werden mutipliziert: |z · w| = |z| · |w|. ~ Die Argumente werden addiert modulo 2π.
z·w
w
z·w z
z +
+
1
1
w 4.17 Bemerkung. Ein jeder K¨ orper besitzt mindestens zwei Elemente, n¨ amlich 0 und 1, und nach (K2) ist 1 ∈ K − {0}, also insbesondere 1 6= 0. Im folgenden konstruieren wir einen K¨ orper mit genau zwei Elementen: 4.18 Beispiel. Wir definieren: F2 := {0, 1}. Dann ist (F2 , +, ·) ein K¨ orper, wobei die Addition und Multiplikation wie folgt definiert sind: + 0 1
0 0 1
1 1 0
· 0 1
0 0 0
1 0 1
Die Eintr¨ age der Multiplikationstabelle sind alle bereits durch die K¨ orperaxiome und die elementaren Eigenschaften von K¨ orpern festgelegt. Die Eintr¨ age der Additionstabelle ebenfalls, bis auf die Addition 1 + 1. Damit (F2 , +, ·) ein K¨ orper sein kann, muss aber 1 + 1 = 0 sein, denn w¨ are 1 + 1 = 1, so w¨ are x = 1 eine L¨ osung der Gleichung 1 + x = 1. Da x = 0 die Gleichung ebenfalls l¨ ost und nach Satz 3.5 die L¨ osung eindeutig ist, w¨ are also 1 = 0 im Widerspruch zur Annahme. Man kann auch folgendermaßen argumentieren: W¨ are 1 + 1 = 1, so bes¨ aße 1 kein inverses Element in (F2 , +) im Widerspruch zu (K1). Nun k¨ onnen wir zeigen: (F2 , +, ·) ist ein K¨ orper: (K1) (F2 , +) ist eine abelsche Gruppe mit neutralem Element 0: ¨ ~ Das Assoziativgesetz kann man direkt nachrechnen (Ubung!).
31 ~ Das Kommutativgesetz ist erf¨ ullt, da die Additionstabelle symmetrisch zur Diagonalen ist. ~ 0 ist neutrales Element der Addition. ~ 0 ist invers zu 0, und 1 ist invers zu 1, d.h. 1 = −1. (K2) (F2 − {0}, ·) ist eine abelsche Gruppe: ~ (F2 − {0}, ·) = ({1}, ·) ist die triviale Gruppe G = {e}, die nur aus dem neutralen Element besteht. ¨ (K3) Die Distributivgesetze kann man direkt nachrechnen (Ubung!).
32
Kapitel 4. K¨ orper
Kapitel 5
Vektorr¨ aume 5.1 Definition. Sei K ein K¨ orper. Ein K-Vektorraum (oder Vektorraum ¨ uber K) ist ein Tripel (V, +, ·), wobei V eine Menge ist und + : V × V → V,
·:K ×V →V
Abbildungen sind, die folgenden Axiomen gen¨ ugen: (V1) (V, +) ist eine abelsche Gruppe. (V2) ∀v, w ∈ V, ∀α, β ∈ K gilt: a) (α + β) · v = α · v + β · v
b) α · (v + w) = α · v + α · w c) (α · β) · v = α · (β · v)
d) 1 · v = v 5.2 Beispiele.
1) Sei K ein beliebiger K¨ orper. Definiere auf x1 .. n V := K = . xi ∈ K x n
die Addition + : V × V → V komponentenweise durch: x1 + y 1 y1 x1 . . .. . + . := . . . xn + y n yn xn Analog definiere die Multiplikation ·K × V → V α · x1 x1 . .. α · .. := . α · xn xn
komponentenweise durch: .
−x1 0 . . . . Dann ist (K n , +, ·) ein K-Vektorraum mit 0 = . und −x = . . −xn 0
34
Kapitel 5. Vektorr¨ aume 2) Der Spezialfall n = 1 zeigt: Jeder K¨ orper K ist selbst ein K-Vektorraum. 3) (V, +, ·) = (C, +, ·) = (R2 , +, ·) ist ein R-Vektorraum. 4) (V, +, ·) = (R, +, ·) ist ein Q-Vektorraum. 5) Sei K ein beliebiger K¨ orper, und M 6= ∅ eine Menge. Setze V := Abb(M, K) = {f : M → K} definiere ∀f, g ∈ V, ∀α ∈ K die Addition und Multiplikation punktweise: ∀m ∈ M : (f + g)(m) := f (m) + g(m) ∀m ∈ M : (α · f )(m) := α · f (m) . Definiere ferner das neutrale Element 0V ∈ V und das zu f ∈ V inverse Element (−f ) ∈ V gleichfalls punktweise durch: ∀m ∈ M : 0V (m) := 0
∀m ∈ M : (−f )(m):= − (f (m)) . Dann ist (V, +, ·) = (Abb(M, K), +, ·) ein K-Vektorraum: (V1): Die Addition ist punktweise definiert, daher gen¨ ugt es, die Gruppenaxiome punktweise zu pr¨ ufen. Da (K, +) eine additive Gruppe ist, sind die Gruppenaxiome punktweise erf¨ ullt. (V2) Die Rechenregeln (V1a) – (V1d) gelten in (K, +, ·), und da die Addition und Multiplikation punktweise definiert sind, gelten sie auch in V . Wir zeigen exemplarisch zur Verdeutlichung (V2a) und (V2c): (V2a) ∀f ∈ V = Abb(M, K), ∀α, β ∈ K: ((α + β) · f )(m)
= (K3b)
= =
(α + β) · f (m) α · f (m) + β · f (m) (α · f )(m) + (β · f )(m) (α · f + β · f )(m) .
= (V2c) ∀f ∈ V, ∀α, β ∈ K: ((α · β) · f )(m)
= (K2)
=
= =
(α · β) · f (m) α · (β · f (m))
α · (β · f )(m) (α · (β · f ))(m) .
5.3 Satz. Sei K ein K¨orper und V ein K-Vektorraum. Dann gilt ∀v, w ∈ V und ∀α ∈ K: 1) 0K · v = 0V . 2) α · 0V = 0V . 3) Aus α · v = 0 folgt α = 0 oder v = 0. 4) (−1) · v = −v. Beweis: 3.5
1) 0K · v = (0K + 0K ) · v = 0K · v + 0K · v =⇒ 0K · v = 0V .
35 3.5
2) α · 0V = α · (0V + 0V ) = α · 0V + α · 0V =⇒ α · 0V = 0V . 3) Sei α · v = 0 und α 6= 0; zu zeigen: v = 0. (V 2d)
(V 2c)
1)
v = 1 · v = (α−1 · α) · v = α−1 · (α · v) = α−1 · 0V = 0V . 4) Zu zeigen: (−1) · v ist invers zu v, d.h. (−1) · v + v = 0V . Wir berechnen: (V 2d)
(V 2a)
1)
(−1) · v + v = (−1) · v + 1 · v = (−1 + 1) · v = 0K · v = 0V . 2 5.4 Definition. Sei (G, ·) eine Gruppe. Eine Teilmenge H ⊂ G heißt Untergruppe, falls sie folgenden Axiomen gen¨ ugt: (UG1) H 6= ∅ (UG2) ∀a, b ∈ H gilt: (a · b) ∈ H, d.h. H ist abgeschlossen unter der Verkn¨ upfung · von G. (UG3) ∀a ∈ H gilt: a−1 ∈ H, d.h. H ist abgeschlossen unter der Inversenbildung in G. 5.5 Satz. Sei (G, ·) eine Gruppe mit neutralem Element e und H ⊂ G eine Untergruppe. Dann gilt: 1) e ∈ H 2) Mit der Einschr¨ankung der Multiplikation · : G × G → G auf · : H × H → H ist (H, ·) selbst eine Gruppe. Beweis: 1) Nach (UG1) ist H 6= ∅, somit ∃a ∈ H. Nach (UG3) ist a−1 ∈ H, und nach (UG2) ist e = a−1 · a ∈ H. 2) Wegen (UG2) ist die Einschr¨ ankung der Multiplikation eine Abbildung · : H × H → H. Die Gruppenaxiome (G1), (G2) gelten f¨ ur alle Elemente aus G, und somit insbesondere f¨ ur alle Elemente aus H ⊂ G. 2 5.6 Bemerkung. ~ Ist H Untergruppe einer abelschen Gruppe G, so ist H selbst abelsch. ~ Eine Untergruppe einer Untergruppe von G ist selbst eine Untergruppe von G. 5.7 Beispiele.
1) Sei (G, ·) = (Q, +); dann ist H = Z eine Untergruppe.
2) Sei (G, ·) = (R, +); dann ist H = Q eine Untergruppe. 3) Nach obiger Bemerkung ist H = Z ebenfalls eine Unterguppe von (R, +). 4) Sei (G, ·) = (Z, +); dann ist H = N keine Unterguppe, denn zu a ∈ N, a 6= 0 ist a−1 ∈ / N, und somit ist (UG3) verletzt. 5) Sei (G, ·) = (C − {0}, ·); dann ist H = R − {0} eine Untergruppe. 6) Sei (G, ·) eine beliebige Gruppe; dann ist H = {e} eine Untergruppe, die sogenannte triviale Unterguppe.
36
Kapitel 5. Vektorr¨ aume 7) Sei (G, ·) eine beliebige Gruppe; dann ist H = G eine Untergruppe, d.h. jede Gruppe ist Untergruppe von sich selbst.
5.8 Definition. Sei (K, +, ·) ein K-Vektorraum. Eine Teilmenge W ⊂ V heißt Untervektorraum, falls sie folgenden Axiomen gen¨ ugt: (UV1) W 6= ∅. (UV2) ∀v, w ∈ W gilt: v + w ∈ W , d.h. W ist abgeschlossen unter der Addition von V. (UV3) ∀α ∈ K, ∀v ∈ W gilt: α · v ∈ V , d.h. W ist abgeschlossen unter der Multiplikation von V . 5.9 Satz. Sei (V, +, ·) ein K-Vektorraum und W ⊂ V ein Untervektorraum. Sei +W die Einschr¨ankung von + : V × V → V auf +W : W × W → W . Sei ferner ·W die Einschr¨ankung von · : K × V → V auf ·W : K × W → W . Dann ist (W, +W , ·W ) ein K-Vektorraum. Die 0 in W stimmt mit der 0 in V ¨ uberein. Beweis: (V1) Wir zeigen, dass (V, +W ) eine abelsche Untergruppe von (V, +) ist: Offensichtlich gilt f¨ ur die abelsche Gruppe (V, +) und den Untervektorraum W ⊂ V : (UV1) =⇒ (UG1)
und
(UV2) =⇒ (UG2) .
Zu v ∈ W ist nach (UV3) mit α = −1 auch −v = (−1) · v ∈ W , und somit ist (UV3) erf¨ ullt. Folglich ist (W, +W ) eine Unterguppe von (V, +) und ist inbesondere eine abelsche Gruppe. (V2) Die Axiome (V2a-d) sind f¨ ur alle Elemente aus V erf¨ ullt, also insbesondere auch f¨ ur alle Elemente aus W ⊂ V . 2 5.10 Beispiele.
1) Sei K = R und (V, +, ·) = (C, +, ·); dann ist W1 := {x1 + 0 · i | x1 ∈ R}
ein Untervektorraum. 2) Sei K = R und (V, +, ·) = (C, +, ·); dann ist W2 := {0 + x2 · i | x2 ∈ R} ein Untervektorraum. 3) Sei K = C und (V, +, ·) = (C, +, ·); dann ist W1 := {x1 + 0 · i | x1 ∈ R} kein Untervektorraum, denn zu α = i ∈ K und v = (1 + 0 · i) ∈ W und ist α · v = i · (1 + 0 · i) = (0 · (−1) + 1 · i) = (0 + 1 · i) ∈ / W1 . Analog ist auch W2 := {0 + x2 · i | x2 ∈ R} kein Untervektorraum, denn zu α = i ∈ K und v = (0 + 1 · i) ∈ W ist α · v = i · (0 + 1 · i) = (0 · i + 1 · i2 ) = (−1 + 0 · i) ∈ / W2 .
37 (K n , +, ·). Dann ist
4) Sei K ein beliebiger K¨ orper und (V, +, ·) = x1 . . . x k x ∈ K ein Untervektorraum: W := i 0 .. . 0
Offensichtlich ist 0 ∈ W , es ist also W = 6 ∅ und damit ist (UV1) nun x, y ∈ W ; dann berechnen wir: x1 + y 1 x1 + y 1 y1 x1 . . .. . . . .. . . . xk y k xk + y k xk + y k x+y = 0 + 0 = 0+0 = 0 . . .. . . . .. . . . 0 0+0 0 0
erf¨ ullt. Seien
∈W.
Somit ist (UV2) erf¨ ullt. Analog zeigt man auch (UV3): Sei x ∈ W und α ∈ K; dann berechnen wir: α · x1 α · x1 x1 . .. .. . . . . xk α · x k α · x k ∈W. α·x=α· = = 0 α·0 0 . .. .. . . . . 0
α·0
0
5) Sei K ein beliebiger K¨ orper, M 6= ∅ eine Menge und (V, +, ·) = (Abb(M, K), +, ·). Sei M 0 ⊂ M eine Teilmenge; dann ist W := {f : M → K | f (m) = 0 ∀m ∈ M 0 } ein Untervektorraum: (UV1) ist erf¨ ullt, denn die Abbildung f : M → K, f (m) := 0 ∀m ∈ M ist offensichtlich ein Element von W . (UV2): Seien f, g ∈ W ; zu zeigen: (f + g) ∈ W , d.h. ∀m ∈ M 0 : (f + g)(m) = 0. Wir erinnern uns der Definition von (f + g) und berechnen: ∀m ∈ M 0 : (f + g)(m) := f (m) + g(m) = 0 + 0 = 0 . Somit ist tats¨ achlich (f + g) ∈ W .
(UV3): Sei α ∈ K und f ∈ W ; zu zeigen: (α · f ) ∈ W . Wir erinnern uns der Definition von (α · f ) und berechnen: ∀m ∈ M 0 : (α · f )(m) := α · f (m) = α · 0 = 0 . Somit ist also (α · f ) ∈ W .
38
Kapitel 5. Vektorr¨ aume 6) Sei speziell K = R, M = R und V = Abb(R, R); dann ist R[x] := {f : R → R | f ist Polynom} ein Untervektorraum von V . 7) Sei wieder K = R, M = R und V = Abb(R, R), und sei k ∈ N; dann ist Rk [x] := {f : R → R | f ist Polynom vom Grad ≤ k}
ein Untervektorraum von V . 8) Sei wieder K = R, M = R und V = Abb(R, R), und sei k ∈ N − {0}; dann ist W := {f : R → R | f ist Polynom vom Grad = k}
kein Untervektorraum, denn zu f ∈ W ist 0 · f = 0 ∈ / W , und somit ist (UV3) verletzt. 9) Sei (V, +, ·) ein beliebiger K-Vektorraum; dann ist W := {0} ein Untervektorraum, der sogennannte triviale Untervektorraum. 10) Sei (V, +, ·) ein beliebiger K-Vektorraum; dann ist W := V ein Untervektorraum. 5.11 Bemerkung. Jeder Untervektorraum eines Untervektorraumes von V ist selbst ein Untervektorraum von V . 5.12 Bemerkung. Sei (V, +, ·) ein K-Vektorraum, und seien W1 , W2 ⊂ V Untervektorr¨ aume; dann ist auch W1 ∩ W2 ⊂ V ein Untervektorraum. Beweis: (UV1): Wir wissen bereits: 0 ∈ W1 und 0 ∈ W2 , folglich ist 0 ∈ W1 ∩ W2 6= ∅. ur alle Elemente von W1 und f¨ ur alle Elemente von W2 (UV2),(UV3): Die Axiome sind f¨ erf¨ ullt, also insbesondere auch f¨ ur alle Elemente von W1 ∩ W2 . 2 5.13 Bemerkung. Sei (V, +, ·) ein K-Vektorraum, und seien W1 , W2 ⊂ V Untervektorr¨ aume; dann ist W1 ∪ W2 ⊂ V i.a. kein Untervektorraum. 5.14 Beispiel. Sei K = R, (V, +, ·) = (C, +, ·) und W1 := {x1 + 0 · i | x1 ∈ R} sowie W2 := {0 + x2 · | x1 ∈ R}; dann ist ( ! ) x1 W1 ∪ W2 = {x1 + x2 · i | x1 = 0 oder x2 = 0} = x1 = 0 oder x2 = 0 x2
kein Untervektorraum, denn zu x = 1 + 0 · i und y = 0 + 1 · i ist x + y = 1 + 1 · i ∈ / W1 ∪ W 2 .
y=i x+y =1+i =
x=1
1 1
!
39 5.15 Definition. Sei (V, +, ·) ein K-Vektorraum und v1 , . . . , vm ∈ V : Ein w ∈ V der Form w = λ 1 · v1 + . . . + λ m · vm heißt Linearkombination von v1 , . . . , vm . Ferner heißt
spanK (v1 , . . . , vm ) := {λ1 · v1 + . . . + λm · vm | λi ∈ K} der von v1 , . . . , vm aufgespannte Raum. 5.16 Definition. Sei (V, +, ·) ein K-Vektorraum und M ⊂ V, M 6= ∅; dann heißt spanK (M ) := {w = λ1 · v1 + . . . + λm · vm | λi ∈ K, vi ∈ M, m ∈ N}
der von M aufgespannte Raum. 5.17 Satz. Sei (V, +, ·) ein K-Vektorraum, v1 , . . . vm ∈ V und M ⊂ V, M 6= ∅. Dann gilt: 1) spanK (v1 , . . . , vm ) ist ein Untervektorraum. 2) spanK (M ) ist ein Untervektorraum. 3) Ist W ⊂ V ein Untervektorraum und M ⊂ W , so ist auch spanK (M ) ⊂ W , d.h. : spanK (M ) ist der (bzgl. der Inklusion ⊂ ) kleinste Untervektorraum von V , der M enth¨alt. Beweis: 1) Da 0 = 0 · v1 + . . . + 0 · vm ∈ spanK (v1 , . . . , vm ) ist (UV1) erf¨ ullt. Zu x, y ∈ spanK (v1 , . . . , vm ), x = λ 1 · v1 + . . . + λ m · vm ,
y = µ 1 · v1 + . . . + µ m · vm
berechnen wir: x + y = λ1 · v1 + . . . + λm · vm , +µ1 · v1 + . . . + µm · vm (V1) = λ1 · v1 + µ 1 · v1 + . . . + λ m · vm + µ m · vm (V2a) = (λ1 + µ1 ) · v1 + . . . + (λm + µm ) · vm ∈ spanK (v1 , . . . , vm ) .
Somit ist (UV2) erf¨ ullt. Analog berechnen wir zu α ∈ K und x = λ1 · v1 + . . . + λm · vm ∈ spanK (v1 , . . . , vm ): α · (λ1 · v1 + . . . + λm · vm )
(V2b) = α · (λ · v1 ) + . . . + α · (λm · vm )
(V2c) = (α · λ1 ) · v1 + . . . + (α · λm ) · vm ∈ spanK (v1 , . . . , vm ) .
Somit ist auch (UV3) erf¨ ullt. 2) Der Beweis f¨ ur eine beliebige Menge M ⊂ V geht ganz analog: Wie in 1) gilt 0 ∈ spanK (M ), so dass (UV1) erf¨ ullt ist. Mit x, y ∈ spanK (M ), x = λ 1 · v1 + . . . + λ m · vm ,
y = µ 1 · w1 + . . . + µ n · wn
ist offensichtlich auch x + y = λ1 · v1 + . . . + λm · vm , +µ1 · w1 + . . . + µn · wn ∈ spanK (M ) . Analog ist mit α ∈ K und x = λ1 · v1 + . . . + λm · vm ∈ spanK (M ) auch α · (λ1 · v1 + . . . + λm · vm ) = (α · λ1 ) · v1 + . . . + (α · λm ) · vm ∈ spanK (M ) .
40
Kapitel 5. Vektorr¨ aume 3) Ist M ⊂ W und W ein Untervektorraum, so liegen nach (UV2) und (UV3) auch alle Linearkombinationen von Elementen von M in W .
5.18 Beispiele.
1) Sei K = R, (V, +, ·) = (C, +, ·) und v = 1 + 0 · i =
dann ist spanR (v) =
(
λ·
1 0
! ) ( λ∈R =
λ 0
2) Sei K = C, (V, +, ·) = (C, +, ·) und v = 1 + 0 · i =
1 0
2 !
;
! ) λ∈R (C. 1 0
!
; dann ist
spanC (v) = {λ · (1 + 0 · i) | λ ∈ C} = {λ | λ ∈ C} = C . 3) Sei K ein beliebiger K¨ orper und (V, +, ·) = (K n , +, ·). Setze 0 1 . 0 .. . . e1 := . , . . . , ei := 1 , . . . , en := .. .. . . 0 0 Dann ist spanK (e1 , . . . , en ) = V , denn jedes x ∈ V = als Linearkombination von e1 , . . . , en darstellen: x1 x1 0 x1 · 1 . . .. 0 . x1 · 0 +...+ . = . x= . = . . .. 0 .. . 0 xn x1 · 0 xn = x1 · e1 + . . . + xn · en ∈ spanK (e1 , . . . , en ) .
0 .. . .. . 0 1
.
K n l¨ asst sich wie folgt
+ ...+ =
xn · 0 .. . xn · 0 xn · 1
4) Sei K = R und (V, +, ·) = (Abb(R, R), +, ·). Seien v0 , . . . , v3 ∈ V die folgenden Abbildungen: f0 : x 7→ 1,
f1 : x 7→ x,
dann ist spanR (f0 , f1 , f2 , f3 ) = R3 [x].
f2 : x 7→ x2 ,
f3 : x 7→ x3 ;
5) Sei K = R, (V, +, ·) = (Abb(R, R), +, ·) und M := {f0 , . . . , fk }, wobei fj (x) = xj . Dann ist spanK (M ) = Rk [x]. 5.19 Definition. Sei V ein K-Vektorraum. 1) Ein k-Tupel (v1 , . . . , vk ) von Elementen in V heißt linear unabh¨angig, falls gilt: Sind λ1 , . . . , λk ∈ K mit λ1 · v1 + . . . + λk · vk = 0, so folgt daraus: λ1 = . . . = λk = 0. Man sagt auch: Der Nullvektor l¨ asst sich nur trivial aus v1 , . . . , vk linear kombinieren, d.h. nur durch die triviale Linearkombination, bei der alle Linearfaktoren λi = 0 sind. Etwas ungenau sagt man auch, die Elemente v1 , . . . , vk ∈ V sind linear unabh¨ angig.
41 2) Das k-Tupel (v1 , . . . , vk ) (oder etwas ungenauer, die Elemente v1 , . . . , vk heißt linear abh¨angig, falls es nicht linear unabh¨ angig ist, d.h. falls es eine nichttriviale Linearkombination des Nullvektors gibt, d.h. falls gilt: ∃λ1 , . . . , λk ∈ K, ∃i ∈ {1, . . . , k} : λi 6= 0 und λ1 · v1 + . . . + λk · vk = 0. 3) Eine Menge M ⊂ V heißt linear unabh¨angig, falls f¨ ur jede endliche Teilmenge {v1 , . . . , vm } ⊂ M mit paarweise verschiedenen vj das m-Tupel (v1 , . . . , vm ) linear unabh¨ angig ist. angig ist, 4) Eine Menge M ⊂ V heißt linear abh¨angig, falls nicht linear unabh¨ d.h. falls sie eine endliche Menge {v1 , . . . , vm } ⊂ M aus paarweise verschiedenen vj enth¨ alt, f¨ ur die v1 , . . . , vm linear abh¨ angig sind. 5.20 Bemerkung. In der Definition linear (un-)abh¨ angiger Mengen haben wir nur endliche Teilmengen {v1 , . . . , vm } ⊂ M mit paarweise verschiedenen vj betrachtet, da jedes m-Tupel, in dem ein Vektor mehrfach vorkommt, linear abh¨ angig ist: Ist etwa v1 = v2 , so ist eine nichttriviale Linearkombination der Null gegeben durch 1 · v1 + (−1) · v2 + 0 · v3 + · · · 0 · vm = 0. 5.21 Satz. Sei K ein K¨orper, V ein K-Vektorraum und M ⊂ V eine Teilmenge; dann sind ¨aquivalent: 1) M ist linear unabh¨angig. 2) Jeder Vektor v ∈ spanK (M ) l¨asst sich in eindeutiger Weise aus paarweise verschiedenen Vektoren in M linear kombinieren. Beweis: 1) =⇒ 2): Sei M linear unabh¨ angig und sei v ∈ spanK (M ); dann gibt es paarweise m P verschiedene v1 , . . . , vm ∈ M und α1 , . . . , αm ∈ K so dass v = αi · v i . Sei nun v =
n P
j=1
i=1
βj · wj mit β1 , . . . , βn ∈ K und w1 , . . . , wn ∈ M ei-
ne weitere Linearkombination mit paarweise verschiedenen w1 , . . . , wn . Wir schreiben {v1 , . . . , vm , w1 , . . . , wn } = {z1 , . . . , zk } mit paarweise verschiedenen z1 , . . . , zk , k ≤ m + n. Indem wir notfalls die Koefffizienten αi und βj umnummerieren und durch 0 erg¨ anzen, erhalten wir nun: v=
k X j=1
αj · z j
und
v=
k X j=1
βj · z j .
Daraus erhalten wir unmittelbar: 0=v−v =
k X j=1
(αj − βj ) · zj .
Da M linear unabh¨ angig ist, folgt daraus αj − βj = 0 ∀j = 1, . . . , k und somit αj = βj ∀j = 1, . . . , k. Somit sind die beiden Darstellungen von v als Linearkombination von Elementen aus M (bis auf Umnummerierung) gleich. 2) =⇒ 1): Sei 0 =
m P
j=1
αj · vj mit α1 , . . . , αm ∈ K und v1 , . . . , vm ∈ M ; zu zeigen:
αj = 0 ∀j = 1, . . . , m. Da 0 ∈ spanK (M ) liefert die Aussage 2) f¨ ur v = 0, dass m P die Linearkombination von v = 0 eindeutig ist. Somit ist 0 = αj · vj die j=1
triviale Linearkombination, d.h. αj = 0 ∀j = 1, . . . , k.
42
Kapitel 5. Vektorr¨ aume 2
5.22 Bemerkung. In jedem K-Vektorraum V gilt: 1) {v} linear abh¨ angig ⇔ v = 0. 2) Ist V ⊂ M und 0 ∈ M , so ist M linear abh¨ angig. 3) M ⊂ V linear abh¨ angig ⇔ ∃v ∈ M so dass v ∈ spanK (M ) − {v}, d.h. m P ∃α1 , . . . , αk ∈ K, v1 , . . . , vm ∈ M − {v} mit v = αj · v j . j=1
Beweis:
1) ⇒“: Sei {v} linear abh¨ angig, d.h. es existiert ein α ∈ K, α 6= 0 mit α · v = 0. ” Daraus folgt nach Satz 5.3 v = 0. ⇐“: {0} ist linear anb¨ angig, denn 0 = 1 · 0 ist eine nicht triviale Linearkom” bination des Nullvektors. 2) Falls 0 ∈ M , so 0 = 1·0 eine nicht triviale Linearkombination des Nullvektors, d.h. M ist linear abh¨ angig. 3) ⇒“: Sei M linear abh¨ angig, d.h. ∃v1 , . . . , vn ∈ M paarweise verschieden und ” n P α1 , . . . , αn ∈ K, die nicht alle 0 sind, so dass 0 = αj · vj . Sei O.B.d.A. j=1
α1 6= 0 (andernfalls nummeriert man die Vektoren um). Dann ist: 0 = α 1 · v1 +
n X j=2
αj · vj =⇒ α1 · v1 = −
n X j=2
αj · v j .
Da α1 6= 0 k¨ onnen wir nach v1 aufl¨ osen und erhalten: v1 =
−α−1 1
n X αj · vj . · αj · v j = − α1 j=2 j=2 n X
Somit ist v = v1 aus M − {v1 } linear kombinierbar.
⇐“: Sei v ∈ M , seien v1 , . . . , vn ∈ M − {v} paarweise verschieden und ” n P α1 , . . . , αn ∈ K mit v = αj · vj . Zu zeigen: M ist linear abh¨ angig, j=1
d.h. es existiert eine nicht triviale Linearkombination des Nullvektors aus Elementen von M . Wir berechnen: 0=v−v =
n X j=1
αj · vj − v = α1 · v1 + . . . + αn · vn + (−1) · v .
Da (−1) 6= 0 ist dies eine nicht triviale Linearkombination des Nullvektors. 2
Kapitel 6
Basen 6.1 Definition. Sei K ein K¨ orper und V ein K-Vektorraum. Eine Menge M ⊂ V heißt Erzeugendensystem von V , falls spanK (M ) = V . Eine Menge M ⊂ V heißt Basis von V , falls M ein linear unabh¨ angiges Erzeugendensystem von V ist. 6.2 Bemerkung. Jeder Vektorraum besitzt ein Erzeugendensystem, z.B. M = V . 6.3 Beispiele. 1) Sei K ein beliebiger K¨ orper und V = K n . In 5.18 hatten wir die Vektoren e1 , . . . , en ∈ K n definiert und gezeigt, dass spanK ({e1 , . . . , en }) = V , dass also nach obiger Definition M = {e1 , . . . , en } ein Erzeugendensystem von V = K n ist. Wir zeigen: M ist linear unabh¨ angig, d.h. M ist eine Basis. n P αj · ej eine Linearkombination des Nullvektors; dann ist: Sei nun 0 = j=1
0 0 .. . 0
= α1 ·
1 0 .. . 0
+ . . . + αn ·
0 .. . 0 1
=
α1 α2 .. . αn
.
Somit folgt α1 = . . . = αn = 0. M = {e1 , . . . , en } heißt Standardbasis oder kanonische Basis von V = K n . 2) Sei ( K != R und !)V = C; dann ist nach 1) die Menge M = {1, i} = 1 0 , eine Basis von V . 0 1 3) Sei K = C und V = C; dann ist M = {1, i} keine Basis von V , denn M ist linear abh¨ angig, da 0 = (−i) · 1 + 1 · i eine nicht triviale Linearkombination des Nullvektors ist. 4) Sei K = R und V = Rk [x]; dann ist M = {1, x, x2 , . . . , xk } eine Basis von V , denn jedes Polynom k-ten Grades l¨ asst sich in eindeutiger Weise aus Elementen von M linear kombinieren. 5) Sei K = R und V = R[x]; dann ist {1, x, x2 , . . .} = {xk | k ∈ N} eine Basis von V . 6.4 Satz. Sei K ein K¨orper, V 6= {0} ein K-Vektorraum und M ⊂ V eine Teilmenge; dann sind ¨ aquivalent:
44
Kapitel 6. Basen 1) M ist eine Basis von V . 2) M ist ein minimales Erzeugendensystem, d.h. M ist ein Erzeugendensystem, und f¨ ur jedes v ∈ M ist M − {v} kein Erzeugendensystem. 3) M ist eine maximale linear unabh¨angige Teilmenge, d.h. M ist linear unabh¨angig, und f¨ ur jedes v ∈ V − M ist M ∪ {v} linear abh¨angig.
Beweis: 1) =⇒ 2): Sei M eine Basis von V ; dann ist M insbesondere ein Erzeugendensystem. Zu zeigen: M ist minimal. Angenommen, es existiert ein v ∈ M so dass M − {v} noch ein Erzeugendensystem ist. Dann l¨ asst sich v aus Elementen von M − {v} linear kombinieren. Somit ist M linear abh¨ angig im Widerspruch zur Annahme, dass M eine Basis von V ist. 2) =⇒ 1): Sei M ein minimales Erzeugendensystem von V ; zu zeigen: M ist linear unabh¨ angig. Angenommen, M ist linear abh¨ angig; dann existieren ein v ∈ M und n P v1 , . . . , vn ∈ M − {v} sowie α1 , . . . , αn ∈ K, so dass v = αj · v j . j=1
Behauptung: M − {v} ist immer noch ein Erzeugendensystem im Widerspruch zur Annahme der Minimalit¨ at.
Beweis: Sei w ∈ V ein beliebiges Element. Da M ein Erzeugendensystem von V ist, existieren also β1 , . . . , βm ∈ K und w1 , . . . , wm ∈ M − {v} mit m P βk · wk . Wir setzen obige Linearkombination von v ein und w = α·v+
erhalten:
k=1
w =α·
n X j=1
αj · v j +
m X k=1
βk · w k =
n X j=1
(α · αj ) · vj +
m X
k=1
βk · w k .
Somit ist also jedes w ∈ V aus Elementen von M − {v} linear kombinierbar und folglich M − {v} ein Erzeugendensystem von V .
Damit ist die Behauptung bewiesen und M − {v} ein Erzeugendensystem von V im Widerspruch zur Annahme der Minimalit¨ at von M . Folglich ist M linear unabh¨ angig.
1) =⇒ 3): Sei M eine Basis von V ; dann ist M insbesondere linear unabh¨ angig. Zu zeigen: M ist maximal. Sei dazu v ∈ V − M ; dann ist zu zeigen: M ∪ {v} ist linear abh¨ angig. Nach Voraussetzung ist M ein Erzeugendensystem von V , d.h. v l¨ asst sich aus Elementen von M linear kombinieren, und somit ist M ∪ {v} linear abh¨ angig. 3) =⇒ 1): Sei M eine maximale linear unabh¨ angige Teilmenge; zu zeigen: M ist ein Erzeugendensystem von V . Sei dazu v ∈ V ein beliebiger Vektor; wir machen folgende Fallunterscheidung: 1) Ist v ∈ M , so ist v = 1 · v eine Linearkombination von Elementen aus M .
2) Ist v ∈ / M , so ist M ∪ {v} linear abh¨ angig (nach Voraussetzung der Maximalit¨ at), d.h. es existieren paarweise verschiedene v1 , . . . , vm ∈ M m P und α, α1 , . . . , αm ∈ K, die nicht alle 0 sind, so dass 0 = α·v + αj ·vj . j=1
45
~ Ist α = 0, so ist 0 =
m P
j=1
αj vj und αj 6= 0 f¨ ur mindestens ein j ∈
{1, . . . , n}. Somit existiert also eine nichttriviale Linearkombination des Nullvektors aus Elementen von M im Widerspruch zur linearen Unabh¨ angigkeit. ~ Ist α 6= 0, so ist α·v =−
m X j=1
αj · v j
=⇒
m X αj − v= · vj . α j=1
Folglich ist v eine Linearkombination von Elementen aus M , d.h. M ∪ {v} ist linear abh¨ angig. 2 6.5 Definition. Ein K-Vektorraum V heißt endlich erzeugt, falls V ein endliches Erzeugendensystem besitzt, d.h. falls es eine endliche Menge M = {v1 , . . . , vm } gibt, so dass V = spanK (M ). 6.6 Lemma. Sei V ein K-Vektorraum, und sei V nicht endlich erzeugt. Dann gibt es zu jeder nat¨ urlichen Zahl n ∈ N − {0} Vektoren v1 , . . . , vn ∈ V , die linear unabh¨angig sind. Beweis: Wir beweisen die Aussage durch Induktion u ¨ber n: I.A.: W¨ ahle ein v1 ∈ V mit v1 6= 0. Ein solches v1 existiert, denn andernfalls w¨ are V = {0} und damit endlich erzeugt im Widerspruch zur Annahme. I.V.: Sei n ∈ N − {0} eine nat¨ urliche Zahl und seien v1 , . . . , vn ∈ V linear unabh¨ angig. I.S.: Zu zeigen: es existieren v1 , . . . vn+1 ∈ V , die linear unabh¨ angig
sind. Wir w¨ ahlen dazu ein vn+1 ∈ V − spanK ({v1 , . . . , vn }). Dies ist m¨ oglich, denn w¨ are V − spanK ({v1 , . . . , vn }) = ∅, so w¨ are ja V = spanK ({v1 , . . . , vn }) und damit endlich erzeugt im Widerspruch zur Annahme. Nun zeigen wir: v1 , . . . , vn , vn+1 sind linear unabh¨ angig. Sei also n+1 n X X 0= αj · v j = αj · vj + αn+1 · vn+1 j=1
j=1
eine Linearkombination des Nullvektors. W¨ are αn+1 6= 0, so erhielten wir: n n X X αj · vj , αn+1 · vn+1 = − αj · v j =⇒ v= − αn+1 j=1 j=1 und damit w¨ are vn+1 ∈ spanK ({v1 , . . . , vn }) im Widerspruch zur Annahme. n+1 n P P Somit ist also αn+1 = 0, und daraus folgt 0 = αj · v j = αj · v j . j=1
j=1
Nach der Induktionsvoraussetzung I.V. sind v1 , . . . , vn linear unabh¨ angig und folglich α1 = . . . = αn = 0. Wir haben also gezeigt: 0=
n+1 X j=1
αj · v j
=⇒
αj = 0 ∀j = 1, . . . , n + 1 .
Folglich sind v1 , . . . , vn+1 linear unabh¨ angig.
46
Kapitel 6. Basen 2
6.7 Satz (Basisauswahlsatz). Sei V ein K-Vektorraum und M ⊂ V ein endliches Erzeugendensystem. Dann gibt es eine Teilmenge B ⊂ M , die Basis von V ist. Insbesondere besitzt also jeder endlich erzeugte Vektorraum eine Basis. Beweis: Sei M = {v1 , . . . , vk } ein Erzeugendensystem von V . Falls M linear unabh¨ angig ist, so ist bereits B = M eine Basis von V , und es ist nichts zu beweisen. Sei nun also M linear abh¨ angig; dann existiert ein v ∈ M , das sich durch die anderen Elemente von M linear kombinieren l¨ asst (d.h. v ∈ spanK (M − {v}) ). Setze dann M 0 := M − {v}. Dies ist wieder ein endliches Erzeugendensystem von V , denn M ⊂ spanK (M 0 )
=⇒
spanK (M 0 ) ⊃ spanK (M ) = V
spanK (M 0 ) = V .
=⇒
Nun setzen wir das Verfahren fort und entfernen solange Elemente aus M , bis wir ein minimales Erzeugendensystem erhalten. Dies ist nach endlich vielen Schritten erreicht, da nach Voraussetzung das Erzeugendensystem M endlich ist. Das erhaltene minimale Erzeugendensystem ist nach Satz 6.4 eine Basis von V . 2 6.8 Bemerkung. Nicht jeder Vektorraum besitzt ein endliches Erzeugendensystem, z.B. hat der R-Vektorraum R[x] der Polynome kein endliches Erzeugendensystem. Es gilt aber: 6.9 Satz. Sei K ein beliebiger K¨orper und V ein beliebiger K-Vektorraum. Dann besitzt V eine Basis. Beweis: Der Beweis benutzt das so genannte Lemma von Zorn und wird hier aus purer Menschenfreundlichkeit weggelassen. Das Problem besteht darin, dass sukzessives Weglassen u ussiger Elemente aus einem unendlichen Erzeugendensystem ¨berfl¨ wie im Beweis des Basisauswahlsatzes niemals zu enden braucht. Dieses Problem wird durch das Lemma von Zorn geheilt. Der ambitionierte Leser mag selbst die einschl¨ agige Literatur konsultieren, z.B. [1]. 6.10 Bemerkung. In einer Menge gibt es f¨ ur die Elemente keine vorgegebene Reihenfolge. Mitunter m¨ ochte man f¨ ur die Basisvektoren aber genau das haben. Daher machen wir folgende Definition. 6.11 Definition. Sei V ein K-Vektorraum. Ist {v1 , . . . , vn } ⊂ V ein Erzeugendensystem von V und (v1 , . . . , vn ) linear unabh¨ angig, so heißt (v1 , . . . , vn ) geordnete Basis von V . 6.12 Bemerkung. Ist (v1 , . . . , vn ) eine geordnete Basis, so ist selbstverst¨ andlich {v1 , . . . , vn } eine Basis im herk¨ ommlichen Sinn. 6.13 Satz (Austauschlemma). Sei V ein K-Vektorraum, sei B = (v1 , . . . , vr ) r P eine geordnete Basis von V , und sei w = αj · vj ∈ V mit α1 , . . . , αr ∈ K. Dann j=1
ist f¨ ur jedes k ∈ {1, . . . , r} mit αk 6= 0
B 0 := (v1 , . . . , vk−1 , w, vk+1 , . . . , vr ) eine geordnete Basis von V , d.h. vk kann gegen w ausgetauscht werden. Beweis: Sei o.B.d.A. (nach eventuellem Umnummerieren) k = 1, also α1 6= 0. Wir zeigen: B 0 = (w, v2 , . . . vr ) ist eine geordnete Basis von V : ~ Wir zeigen: {w, v2 , . . . vr } ist ein Erzeugendensystem: Sei also v ∈ V ein ber P liebiger Vektor; dann existieren β1 , . . . , βr ∈ K mit v = βj · vj . Wegen j=1
α1 6= 0 kann man die Linearkombination von w nach v1 aufl¨ osen und erh¨ alt:
47
v1 =
1 α1
·w+
r P α onnen wir v1 in der Linearkombination − α1j · vj . Nun k¨
j=2
von w ersetzen und erhalten: r r r X X X 1 αj β1 β1 v = β 1 · − βj − α j · ·w+ ·w+ βj ·vj = · vj + ·vj . α1 α1 α1 α1 j=2 j=2 j=2
Also erzeugt {w, v2 , . . . vr } ganz V .
~ Wir zeigen: B 0 ist linear unabh¨ angig: Seien also β, β2 , . . . , βr ∈ K mit 0 = r P βj · vj . Zu zeigen: β = 0 und βj = 0 ∀j = 2, . . . , r. Wir setzen die β·w+ j=2
Linearkombination von w ein und erhalten: r r r X X X 0=β· αj · v j + βj · vj = (βα1 ) · v1 + (βαj + βj ) · vj . j=1
j=2
j=2
Da v1 , . . . , vj nach Voraussetzung linear unabh¨ angig sind, folgt βα1 = 0 und βαj + βj = 0 ∀j = 2, . . . , r. Da α1 6= 0, folgt β = 0 und damit dann auch βj = 0 ∀j = 2, . . . , r. 2 6.14 Satz (Austauschsatz). Sei V ein K-Vektorraum, B = (v1 , . . . , vr ) eine geordnete Basis und (w1 , . . . wn ) eine linear unabh¨angig. Dann gilt n ≤ r und es gibt i1 , . . . , in ∈ {1, . . . , r} so dass der Austausch von vi1 gegen w1 bis vin gegen wn wieder eine geordnete Basis von V liefert. D.h. nach Umnummerierung zu i1 = 1, . . . , in = n haben wir eine geordnete Basis B ∗ der Form B ∗ = (w1 , . . . , wn , vn+1 , . . . vr ) erhalten. Beweis: Wir zeigen die Aussage per Induktion u ¨ber n: ur n = 0 ist nichts zu zeigen. I.A.: F¨ I.V.: Sei die Aussage f¨ ur n − 1 ∈ N g¨ ultig. I.S.: Zu zeigen: die Aussage ist auch f¨ ur n g¨ ultig. Sei also (w1 , . . . wn ) linear unabh¨ angig. Dann ist auch (w1 , . . . , wn−1 ) linear unabh¨ angig, und nach I.V. n− ¯ = (w1 , . . . wn−1 , vn , . . . , vr ) 1 ≤ r und (nach etwaiger Umnummerierung) ist B eine geordnete Basis von V . ~ Wir zeigen: n ≤ r: Nach I.V. ist n − 1 ≤ r. Angenommen, es w¨ are ¯ = {w1 , . . . wn−1 , vn , . . . , vr } = n − 1 = r, dann ist nach I.V. die Menge B {w1 , . . . wn−1 } eine Basis von V , also eine maximale linear unabh¨ angige Teilmenge im Widerspruch zu der Voraussetzung, dass w1 , . . . wn linear unabh¨ angig sind. Also ist n − 1 < r und damit n ≤ r.
~ Wir zeigen: es gibt ein in ∈ {n, . . . , r} so dass man vin gegen wn aus¯ eine Basis von V ist, gibt es α1 , . . . , αr ∈ K mit tauschen kann: Da B n−1 r P P wn = αj · w j + αj · vj . W¨ aren die Koeffizienten αn , . . . , αr alle j=1
j=n
gleich Null, so w¨ are wn eine Linearkombination von w1 , . . . , wn−1 im Widerspruch zu der Voraussetzung, dass w1 , . . . , wn linear unabh¨ angig sind. Somit gibt es also ein in ∈ {n, . . . , r} mit αin 6= 0. Durch Umnummerieren kann man erreichen dass in = n, also αn 6= 0. Wir wenden nun das Austauschlemma an und k¨ onnen also vn gegen wn austauschen. Damit erhalten wir schließlich eine geordnete Basis der Form B ∗ = (w1 , . . . wn , vn+1 , . . . , vr ) .
48
Kapitel 6. Basen 2
6.15 Folgerung. Hat der K-Vektorraum V eine endliche Basis, so ist jede Basis von V endlich. Beweis: Sie {v1 , . . . , vr } eine endliche Basis von V und B eine weitere Basis. W¨ are B nicht endlich, so g¨ abe es nach 6.6 zu n = r + 1 eine linear unabh¨ angige n-elementige Teilmenge {w1 , . . . , wn } ⊂ B; dies steht im Widerspruch zum Austauschsatz 6.14. 2 6.16 Definition. Sei V ein endlich erzeugter K-Vektorraum und B = (v1 , . . . , vr ) eine geordnete Basis. Dann heißt die Zahl r L¨ange der Basis B. 6.17 Folgerung. Je zwei geordnete Basen eines endlich erzeugten K-Vektorraumes V sind gleich lang. Beweis: Seien B = (v1 , . . . , vr ) und B 0 = (w1 , . . . , wk ) geordnete Basen von V ; dann folgt aus dem Austauschsatz: k ≤ r und r ≤ k, also r = k. 2 6.18 Bemerkung. Der Satz gilt auch f¨ ur beliebige, also auch f¨ ur nicht endlich erzeugte Vektorr¨ aume, wobei hier Basen gleich lang heißen, wenn sie gleichm¨ achtig sind. Der Beweis wird aus o.a. Menschenfreundlichkeit hier weggelassen. 6.19 Definition. F¨ ur einen K-Vektorraum V definiere: ( r, falls V eine Basis der L¨ ange r besitzt; dimK (V ) := ∞, falls V keine endliche Basis besitzt. Man nennt dimK V die Dimension von V . 6.20 Beispiele. 1) Sei K ein beliebiger K¨ orper und V = K n ; dann hat die Standardbasis (e1 , . . . , en ) offensichtlich die L¨ ange n und daher ist dimK (K n ) = n. 2) Sei K = R und V = C = R2 ; dann ist dimR (C) = 2, denn (1, i) ist eine geordnete Basis von V . 3) Sei K = C und V = C; dann ist dimC (C) = 1, denn (1) ist eine geordnete Basis von V . 4) Sei K = R und V = R[x]; dann ist dimR (V ) = ∞, denn V besitzt keine endliche Basis: Die unendliche Menge M = {1, x, x2 , x3 , . . . } = {xk | k ∈ N} ist eine Basis von V , und daher kann V keine endliche Basis B besitzen, denn sonst m¨ usste M gleichm¨ achtig zu B und insbesondere ebenfalls endlich sein. 5) Sei K = R und V = Rk [x]; dann ist dimR (V ) = k + 1, denn {1, x, x2 , . . . , xk } ist eine Basis von V . 6.21 Proposition. Sei V ein endlich erzeugter K-Vektorraum und W ⊂ V ein Untervektorraum. Dann ist W ebenfalls endlich erzeugt und es gilt: dimK (W ) ≤ dimK (V ). Falls dimK (W ) = dimK (V ), so ist W = V . Beweis: Nehmen wir an, W sei nicht endlich erzeugt. Dann existieren nach 6.6 zu n := dimK (V ) + 1 ∈ N – beachte dass dimK (V ) < ∞, da V endlich erzeugt ist – n linear unabh¨ angige Vektoren v1 , . . . , vn ∈ W ⊂ V . Dies steht im Widerspruch zum Auswahlsatz 6.7. Folglich ist W endlich erzeugt. Also besitzt W eine endliche geordnete Basis B = (w1 , . . . wr ), und nach dem Austauschsatz ist r ≤ dimK (V ). Daraus folgt unmittelbar dimK (W ) ≤ dimK (V ). Sei nun dimK (W ) = dimK (V ) = m und B = (w1 , . . . , wm ) eine geordnete Basis von W . Zu zeigen: spanK (B) = V . Angenommen, dies sei nicht der Fall; dann
49 gibt es ein v ∈ V − spanK (B), und (w1 , . . . , wm , v) ist linear unabh¨ angig. Nach dem Austauschsatz 6.14, angewandt auf V , m¨ usste somit dimK (V ) ≥ m + 1 sein, Widerspruch. 2 6.22 Korollar. Sei V ein endlich erzeugter K-Vektorraum mit n = dimK (V ). Dann bilden je n linear unabh¨angige Vektoren v1 , . . . , vn eine Basis. Beweis: Sei M = {v1 , . . . , vn } linear unabh¨ angig. Wir betrachten den Untervektorraum W := spanK (M ): Offensichtlich ist M eine Basis von W und damit dimK (W ) = n = dimK (V ). Nach 6.21 folgt daraus W = V ; somit ist also M ein linear unabh¨ angiges Erzeugendensystem von V , d.h. eine Basis von V . 2 6.23 Korollar (Basiserg¨ anzungssatz). Sei V ein endlich erzeugter KVektorraum, sei r = dimK (V ), und seien w1 , . . . , wn linear unabh¨angig. Dann existieren Vektoren wn+1 , . . . , wr , so dass B = (w1 , . . . , wn , wn+1 , . . . , wr ) eine geordnete Basis von V ist. Beweis: Sei B = (v1 , . . . , vr ) eine geordnete Basis von V . Dann gibt es nach dem Austauschsatz 6.14 Vektoren vin+1 , . . . , vir , die gegen w1 , . . . , wn ausgetauscht werden k¨ onnen, so dass nach etwaigem Umnummerieren von B (w1 , . . . , wn , vn+1 , . . . , vr ) eine geordnete Basis von V ist. 2 6.24 Bemerkung. Wir haben gesehen, dass ein Vektorraum V genau dann endlich erzeugt ist, wenn dimK (V ) < ∞. Daher sagen wir von nun an statt endlich erzeugt“ ” auch endlichdimensional“. ”
50
Kapitel 6. Basen
Kapitel 7
Summe von Untervektorr¨ aumen 7.1 Definition. Sei V ein K-Vektorraum, seien W1 , . . . , Wr ⊂ V Untervektorr¨ aume. Dann heißt W1 + · · · + Wr := {v ∈ V | es gibt wi ∈ Wi , i = 1, . . . , r mit v =
r X i=1
wi }
die Summe der Untervektorr¨aume W1 , . . . , Wr . 7.2 Satz.
1) W1 + · · · + Wr ist Untervektorraum von V .
2) W1 + · · · + Wr = spanK (W1 ∪ · · · ∪ Wr ) 3) dim(W1 + · · · + Wr ) ≤ dim(W1 ) + · · · + dim(Wr ) Beweis: 2) “⊂”: klar. ”⊃”: Sei v ∈ spanK (W1 ∪ · · · ∪ Wr ), d.h. ∃ u1 , . . . , un ∈ W1 ∪ . . . ∪ Wr , ∃α1 , . . . , αn ∈ K, s.d. v=
n X
α j uj .
j=1
Wir nummerieren so um, dass u1 . . . , uk1 ∈ W1 , uk1 +1 , . . . , uk2 ∈ W2 , . . . , ukr−1 +1 , . . . , ukr ∈ Wr . Dann folgt: k1 X
α j uj +
j=1
| {z } =:w1 ∈W1
k2 X
j=k1 +1
|
{z
α j uj + · · · +
=:w2 ∈W2
1) folgt direkt aus 2).
}
kr X
j=kr−1 +1
|
{z
α j uj = w 1 + · · · + w r ∈ W 1 + · · · + W r .
=:wr ∈Wr
}
3) Ist mindestens ein Wj unendlich-dimensional, so gilt die Ungleichung trivialerweise. Hier verwenden wir die Konvention: ∞ + ∞ = ∞, ∞ + n = ∞, ∞ ≥ n ∀n ∈ N.
52
Kapitel 7. Summe von Untervektorr¨ aumen Seien W1 , . . . , Wr endlich-dimensional, seien B1 ⊂ W1 , . . . , Br ⊂ Wr Basen. Dann ist B := B1 ∪ · · · ∪ Br ⊂ W1 + · · · + Wr ein Erzeugendensystem von W1 + · · · + Wr , denn spanK (B) = spanK (B1 ∪ · · · ∪ Br ) = spanK (W1 ∪ · · · ∪ Wr ) = W1 + · · · + W r
=⇒ dim(W1 + · · · + Wr ) ≤ #B ≤ #B1 + . . . + #Br = dim(W1 ) + . . . + dim(W1 ), wobei #B := Anzahl der Elemente von B. 2 7.3 Satz (Dimensionsformel). Sei V ein K-Vektorraum, seien W1 , W2 ⊂ V endlich-dimensionale Untervektorr¨aume. Dann gilt: dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ) 7.4 Beispiel. K = R, V = R3 , W1 = spanR (e1 , e2 ), W2 = spanR (e1 , e3 ), W1 ∩W2 = spanR (e1 ), W1 + W2 = R3 Dimensionsformel: 3 = 2 + 2 − 1 e3 e2
W2
W1 ∩ W 2
W1 e1
Beweis: Sei (v1 , . . . , vm ) eine geordnete Basis von W1 ∩ W2 . Erg¨ anze sie zu geordneter Basis von W1 : (v1 , . . . , vm , w1 , . . . , wk ) Erg¨ anze sie zu geordneter Basis von W2 : (v1 , . . . , vm , u1 , . . . , ul ) Bleibt zu zeigen, dass B := (v1 , . . . , vm , w1 , . . . , wk , u1 , . . . , ul ) eine geordnete Basis von W1 + W2 ist. Denn dann ist dim(W1 + W2 ) = m + k + l = (m + k) + (m + l) − m = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). Behauptung: B ist Erzeugendensystem von W1 + W2 . Beweis: B enth¨ alt Basis von W1 =⇒ spanK (B) ⊃ W1 B enth¨ alt Basis von W2 =⇒ spanK (B) ⊃ W2 =⇒ spanK (B) ⊃ W1 ∪ W2 =⇒ W1 + W2 ⊃ spanK (B) ⊃ spanK (W1 ∪ W2 ) = W1 + W2 =⇒ W1 + W2 = spanK (B) Behauptung: B ist linear unabh¨ angig. Beweis: Seien αj , βj , γj ∈ K, s. d. α 1 v 1 + · · · + α m v m + β 1 w 1 + · · · + β k w k + γ 1 u1 + · · · + γ l ul = 0
(∗)
53 Zu zeigen: α1 = . . . = αm = β1 = . . . = βk = γ1 = . . . = γl = 0 Setze v := α1 v1 + · · · αm vm + β1 w1 + · · · + βk wk ∈ W1 Andererseits −v = γ1 u1 + · · · + γl ul ∈ W2 =⇒ v ∈ W1 ∩ W2 =⇒ ∃δ1 , . . . , δm ∈ K mit v = δ1 v1 + · · · δm vm . Eindeutigkeit der Darstellung durch Linearkombination der Basisvektoren von W 1 liefert: β1 = · · · = βk = 0, αj = δj ∀j = 1, . . . , m Einsetzen in (∗) =⇒ α1 v1 + · · · αm vm + γ1 u1 + · · · + γl ul = 0 =⇒ α1 = · · · = αm = γ1 = · · · = γl = 0, da (v1 , . . . , vm , u1 , . . . , ul ) eine geordnete Basis von W2 ist. 2 7.5 Lemma. Sei V ein endlich-dimensionaler K-Vektorraum, seien W1 , W2 ⊂ V Untervektorr¨aume mit W1 + W2 = V . Dann sind ¨aquivalent: 1) W1 ∩ W2 = {0} 2) Jedes Element v ∈ V l¨asst sich in eindeutiger Weise als Summe v = w1 + w2 mit wi ∈ Wi schreiben. 3) dim(W1 + W2 ) = dim W1 + dim W2 Beweis:
Wir zeigen:
1) =⇒ 2) =⇒ 3) =⇒ 1)
1) =⇒ 2) : Sei W1 ∩ W2 = {0}. Da V = W1 + W2 , l¨asst sich jedes v ∈ V schreiben als v = w1 + w2 mit wi ∈ Wi . Sei v = w10 + w20 eine weitere solche Darstellung, wi0 ∈ Wi . Nun: w1 + w 2 =⇒ w1 − w10 | {z } ∈W1
=⇒ w1 − w10
= w10 + w20 = w20 − w2 ∈ W1 ∩ W2 = {0} | {z } ∈W2
= w20 − w2 = 0
=⇒ w1 = w10 , w2 = w20 . 3) =⇒ 1) : Dimensionsformel =⇒ dim(W1 ∩ W2 ) = 0 =⇒ W1 ∩ W2 = {0}. 2) =⇒ 3) : W¨are dim(W1 ∩ W2 ) > 0, dann w¨are W1 ∩ W2 6= {0}, d.h. es g¨abe ein w ∈ W1 ∩ W2 mit w 6= 0. Dann liesse sich v = 0 ∈ V schreiben als v = 0 = 0 + |{z} 0 = |{z} w + (−w) im Widerspruch zur Eindeutigkeit in 2). |{z} | {z } ∈W1
∈W2
∈W1
∈W2
=⇒ dim(W1 ∩ W2 ) = 0. Dimensionsformel =⇒ Beh.
2 7.6 Definition. Ist V = W1 + W2 mit W1 ∩ W2 = {0}, so sagt man, dass V die direkte Summe von W1 und W2 sei, in Zeichen: V = W1 ⊕ W2 . 7.7 Beispiel. K = R, V = R3 , W1 = spanR (e1 , e2 ), W2 = spanR (e3 )
54
Kapitel 7. Summe von Untervektorr¨ aumen
w2
e3 e2 W1 e1
7.8 Satz. Sei V ein endlich-dimensionaler Vektorraum, seien W1 , W2 ⊂ V Untervektorr¨aume. Dann sind ¨aquivalent: 1) V = W1 ⊕ W2 2) F¨ ur jede Basis B1 von W1 und B2 von W2 ist die Vereinigung B := B1 ∪ B2 disjunkt und eine Basis von V 3) V = W1 + W2 und dim V = dim W1 + dim W2 Beweis: 1) =⇒ 3) : klar wegen Dimensionsformel. 3) =⇒ 2) : Sei Bi ⊂ Wi eine Basis von Wi . Dann ist B = B1 ∪ B2 ein Erzeugendensystem von spanK (W1 ∪ W2 ) = W1 + W2 = V . Es ist dim V ≤ #B ≤ #B1 + #B2 = dim W1 + dim W2 = dim V =⇒ dim V = #B = #B1 + #B2 =⇒ B ist Basis von V und die Vereinigung B1 ∪B2 ist disjunkt, d.h. B1 ∩B2 = ∅. 2) =⇒ 1) : Sei Bi eine Basis von Wi , i = 1, 2. Dann ist B = B1 ∪ B2 eine Basis von V . =⇒ V = spanK (B) = spanK (B1 ∪ B2 ) = spanK (W1 ∪ W2 ) = W1 + W2 und dim V = #B = #B1 + B2 = dim W1 + dim W2 Dimensionsformel =⇒ dim(W1 ∩ W2 ) = 0 =⇒ W1 ⊕ W2 = V 2
Kapitel 8
Gruppenhomomorphismen 8.1 Definition. Seien G und H Gruppen. Eine Abbildung φ : G −→ H heißt Gruppenhomomorphismus, falls f¨ ur alle a, b ∈ G gilt: φ(a · b) = φ(a) · φ(b)
8.2 Achtung. Das · auf der linken Seite der Gleichung ist die Operation in G, das auf der rechten Seite die Operation in H. Das muss nicht dieselbe sein! (Siehe auch Beispiel 2.) 8.3 Beispiele. 1) G = H = Z mit Addition. Fixiere m ∈ Z. Betrachte φm : Z −→ Z, φm (k) = m · k. F¨ ur alle k, l ∈ Z gilt: φm (k + l) = m · (k + l) = m · k + m · l = φm (k) + φm (l) =⇒ φm ist ein Gruppenhomomorphismus von (Z, +) nach (Z, +). Lassen Sie sich nicht dadurch irritieren, dass das · aus Definition 8.1 in diesem Beispiel dem + entspricht! 2) G = (R, +), H = (R>0 , ·), wobei R>0 := {x ∈ R| x > 0} die positiven reellen Zahlen bezeichnet. Betrachte φ : R −→ R>0 , φ(x) := ex . ∀x, y ∈ R gilt: φ(x+y) = ex+y = ex ·ey = φ(x)·φ(y) =⇒ φ ist ein Gruppenhomomorphismus. 3) G = (Z, +), H = (F2 , +), φ : Z −→ F2 , ( 0 , falls k gerade φ(k) := 1 , falls k ungerade Seien k, l ∈ Z 1.Fall: k, l beide gerade:=⇒ k + l gerade =⇒ φ(k + l) = 0 = 0 + 0 = φ(k) + φ(l) 2.Fall: k gerade, l ungerade:=⇒ k + l ungerade =⇒ φ(k + l) = 1 = 0 + 1 = φ(k) + φ(l) 3.Fall: k gerade, l ungerade: wie 2.Fall 4.Fall: k, l beide ungerade:=⇒ k +l gerade =⇒ φ(k +l) = 0 = 1+1 = φ(k)+φ(l) =⇒ φ : Z −→ F2 ist Gruppenhomomorphismus. 8.4 Satz. Seien G und H Gruppen mit neutralem Element eG bzw. eH . Sei φ : G −→ H ein Gruppenhomomorphismus. Dann gilt: a) φ(eG ) = eH
56
Kapitel 8. Gruppenhomomorphismen b) ∀g ∈ G : φ(g −1 ) = φ(g)−1 c) Ist φ bijektiv, so ist φ−1 : H −→ G ebenfalls ein Gruppenhomomorphismus.
Beweis: a) φ(eG ) = φ(eG · eG ) = φ(eG ) · φ(eG ) =⇒ eH = φ(eG )−1 · φ(eG ) = φ(eG )−1 · (φ(eG ) · φ(eG )) = (φ(eG )−1 · φ(eG )) · φ(eG ) = eH · φ(eG ) = φ(eG )
b) Sei g ∈ G. Es ist
a) φ(g −1 )φ(g) = φ(g −1 g) = φ(eG ) = eH =⇒ φ(g −1 ) = φ(g)−1 .
c) Seien h, h0 ∈ H. Nun φ−1 (h) · φ−1 (h0 ) = φ−1 (φ(φ−1 (h) · φ−1 (h0 )))
= φ−1 (φ(φ−1 (h)) · φ(φ−1 (h0 ))) = φ−1 (h · h0 ).
2 8.5 Beispiel. φ : R −→ R>0 , φ(x) = ex a) heißt e0 = 1; b) heißt e−x = 1/ex ; c) φ ist bijektiv, also ist φ−1 =: log, log : R>0 −→ R ein Gruppenhomomorphismus, d.h. log(xy) = log(x) + log(y). 8.6 Definition. Ein Gruppenhomomorphismus heißt Gruppenisomorphismus, falls er bijektiv ist. Zwei Gruppen G und H heißen isomorph, falls es einen Gruppenisomorphismus φ : G −→ H zwischen ihnen gibt, in Zeichen: G ∼ = H. 8.7 Beispiel. Die Exponentialfunktion ist ein Gruppenisomorphismus von (R, +) nach (R>0 , ·), d.h. (R, +) ∼ = (R>0 , ·). 8.8 Beispiel. φm : Z −→ Z, φm (k) = m · k. Es ist φm ein Gruppenisomorphismus ⇐⇒ m = ±1 8.9 Definition. Sei φ : G −→ H. Dann heißt ker(φ) := φ−1 (eH ) = {g ∈ G| φ(g) = eH } Kern von φ und im(φ) := φ(G) Bild von φ. 8.10 Satz. Sei φ : G −→ H ein Gruppenhomomorphismus. Dann gilt: 1) ker(φ) ist eine Untergruppe von G; 2) φ ist injektiv ⇐⇒ ker(φ) = {eG }; 3) im(φ) ist eine Untergruppe von H; 4) φ ist surjektiv ⇐⇒ im(φ) = H. Beweis:
57 1) φ(eG ) = eH =⇒ eG ∈ ker(φ). Seien g, g 0 ∈ ker(φ). Dann φ(gg 0 ) = φ(g)φ(g 0 ) = eH eH = eH =⇒ gg 0 ∈ ker(φ). Sei g ∈ ker(φ). Dann φ(g −1 ) = φ(g)−1 = e−1 H = eH =⇒ g −1 ∈ ker(φ). 2)
φinj.
=⇒“: Sei φ injektiv. Sei g ∈ ker(φ). φ(g) = eH = φ(eG ) =⇒ g = eG ” =⇒ ker(φ) = {eG }. ⇐=“: Sei ker(φ) = {eG }. Seien g, g 0 ∈ G mit φ(g) = φ(g 0 ). ” Zu zeigen: g = g 0 . Nun gilt: φ(gg 0−1 ) = φ(g)φ(g 0−1 ) = φ(g)φ(g 0 )−1 = φ(g)φ(g)−1 = eH =⇒ gg 0−1 ∈ ker(φ) = {eG } =⇒ gg 0−1 = eG =⇒ g = g 0 .
3) eH = φ(eG ) ∈ im(φ). Seien h, h0 ∈ im(φ). W¨ahle g, g 0 ∈ G mit h = φ(g), h0 = φ(g 0 ). Dann ist im(φ) 3 φ(gg 0 ) = φ(g)φ(g 0 ) = hh0 . Sei h ∈ im(φ). W¨ahle g ∈ G mit h = φ(g). Dann h−1 = φ(g)−1 = φ(g −1 ) ∈ im(φ). Also ist im(φ) ist eine Untergruppe von H. 4) klar nach Definition von Surjektivit¨at. 8.11 Beispiel. Wir betrachten φm : Z −→ Z, φm (k) = m · k. Der Kern ist ker(φm ) = {k ∈ Z| m · k = 0} ( Z , falls m = 0 = {0} , sonst φm ist injektiv ⇐⇒ ker(φm ) = {0} ⇐⇒ m 6= 0. im(φm ) = {m · k| k ∈ Z} ( =
{0} , falls m = 0 {durch m teilbare ganze Zahlen} , sonst
φm ist surjektiv⇐⇒ im(φm ) = Z ⇐⇒ m = ±1. 8.12 Beispiel. φ : Z −→ F2 wie oben definiert. ker(φ) = {gerade ganze Zahl} im(φ) = F2 =⇒ φ ist surjektiv, aber nicht injektiv.
58
Kapitel 8. Gruppenhomomorphismen
Kapitel 9
Lineare Abbildungen 9.1 Definition. Seien V, W zwei K-Vektorr¨ aume. Eine Abbildung heißt K-linear oder K-Vektorraumhomomorphismus, falls gilt: (L1) φ ist Gruppenhomomorphismus bzgl. der Addition, d.h. ∀v, v 0 ∈ V : φ(v + v 0 ) = φ(v) + φ(v 0 ); (L2) ∀v ∈ V ∀λ ∈ K : φ(λ · v) = λ · φ(v). 9.2 Bemerkung. φ : V −→ W ist linear ⇐⇒ (L) ∀v, v 0 ∈ V ∀λ, λ0 ∈ K gilt: φ(λv + λ0 v 0 ) = λφ(v) + λ0 φ(v 0 ) Denn: ahle speziell λ = 1 = λ0 . (L)=⇒ (L1): klar, w¨ (L)=⇒ (L2): klar, w¨ ahle λ0 = 0. Andererseits: (L1) (L2) (L1)&(L2)=⇒ (L): φ(λv + λ0 v 0 ) = φ(λv) + φ(λ0 v 0 ) = λφ(v) + λ0 φ(v 0 ) 9.3 Satz. Sei φ : V −→ W eine lineare Abbildung. Dann gilt: a) φ(0) = 0, φ(v − v 0 ) = φ(v) − φ(v 0 ) ∀v, v 0 ∈ V b) ∀v1 , . . . , vn ∈ V ∀λ1 , . . . , λn ∈ K gilt: φ(λ1 v1 + . . . + λn vn ) = λ1 φ(v1 ) + · · · + λn φ(vn ) c) Ist V 0 ⊂ V ein Untervektorraum, so ist φ(V 0 ) ein Untervektorraum von W . d) Ist W 0 ⊂ W ein Untervektorraum, so ist φ−1 (W 0 ) ein Untervektorraum von V. e) Ist φ bijektiv, so ist φ−1 : W −→ V ebenfalls linear. Beweis: a) Es gilt φ(0) = 0 nach Satz 8.4, da φ ein Gruppenhomomorphismus und 0 das neutrale Element bzgl. der Addition ist. Seien v, v 0 ∈ V . φ(v − v 0 )
= (L) = =
φ(1 · v + (−1)v 0 ) 1 · φ(v) + (−1)φ(v 0 ) φ(v) − φ(v 0 )
60
Kapitel 9. Lineare Abbildungen b) Durch vollst¨ andige Induktion nach n: I.A: n = 1, klar wegen (L2). I.S: n − 1 → n : φ(λ1 v1 + · · · + λn vn ) = φ((λ1 v1 + · · · + λn−1 vn−1 ) + λn vn )
= φ(λ1 v1 + · · · + λn−1 vn−1 ) + φ(λn vn ) wegen (L1) = (λ1 φ(v1 ) + · · · + λn−1 φ(vn−1 )) + λn φ(vn ) wegen I.V.& (L2) = λ1 φ(v1 ) + · · · + λn φ(vn )
c) Da V 0 ⊂ V ein Untervektorraum ist, gilt 0 ∈ V 0 =⇒ 0 = φ(0) ∈ φ(V 0 ). Seien w1 , w2 ∈ φ(V 0 ) und λ1 , λ2 ∈ K. Zu zeigen: λ1 w1 + λ2 w2 ∈ φ(V 0 ). W¨ ahle v1 , v2 ∈ V 0 mit φ(v1 ) = w1 und φ(v2 ) = w2 . Setze v := λ1 v1 + λ2 v2 . Da V 0 ⊂ V ein Untervektorraum ist, gilt v ∈ V 0 =⇒ λ1 w1 + λ2 w2 = λ1 φ(v1 ) + λ2 φ(v2 ) = φ(λ1 v1 + λ2 v2 ) = φ(v) ∈ φ(V 0 ). a) d) W 0 ist Untervektorraum von W =⇒ 0 ∈ W 0 =⇒ 0 ∈ φ−1 ({0}) ⊂ φ−1 (W 0 ). Seien v1 , v2 ∈ φ−1 (W 0 ), λ1 , λ2 ∈ K. Zu zeigen: λ1 v1 + λ2 v2 ∈ φ−1 (W 0 ). Es gilt φ(λ1 v1 + λ2 v2 ) = λ1 φ(v1 ) + λ2 φ(v2 ) ∈ W 0 , da W 0 ⊂ W ein Untervektorraum ist. =⇒ λ1 v1 + λ2 v2 ∈ φ−1 (W 0 ) e) Ist φ bijektiv, so ist φ−1 : W −→ V ebenfalls linear, denn φ erf¨ ullt (L1) nach Satz 8.4 c), da φ ein Gruppenhomomorphismus bzgl. der Addition ist und φ erf¨ ullt (L2), da f¨ ur w ∈ W, λ ∈ K gilt: λφ−1 (w) = φ−1 (φ(λφ−1 (w))) = φ−1 (λφ(φ−1 (w))) = φ−1 (λw). 2 9.4 Beispiele. a) Sei K = V = W . Fixiere γ ∈ K. Betrachte die Abbildung φ : V −→ W definiert durch φ(β) := γ · β, dann ist φ linear: zu (L1): φ(β + β 0 ) = γ(β + β 0 ) = γβ + γβ 0 = φ(β) + φ(β 0 ) ∀β, β 0 ∈ V zu (L2): φ(αβ) = γ(αβ) = (γα)β = (αγ)β = α(γβ) = αφ(β).
ker(φ) = {β ∈ K| γ · β = 0} =
(
{0} , falls γ 6= 0 K , sonst
d.h. φ ist injektiv ⇐⇒ ker(φ) = {0} ⇐⇒ γ 6= 0. ( K , falls γ 6= 0 im(φ) = {γ · β ∈ K| β ∈ K} = {0} , sonst d.h. φ ist surjektiv ⇐⇒ im(φ) = K ⇐⇒ γ 6= 0. Somit ist φ injektiv ⇐⇒ φ surjektiv ist.
61 b) K = R, V = W = R2 . Fixiere θ ∈ R. Betrachte die Abbildung φ = Rθ : R2 −→ R2 definiert durch ! x cos θ · x − sin θ · y Rθ = y sin θ · x + cos θ · y
e2
Rθ (e2 )
Rθ (e1 ) θ e1
Rθ = Drehung um den Winkel θ im mathematisch positiven Sinn (d.h. gegen den Uhrzeigersinn). Rθ ist linear: zu (L1): ! 0 x x x + x0 cos θ · (x + x0 ) − sin θ · (y + y 0 ) Rθ = Rθ + = y y0 y + y0 sin θ · (x + x0 ) + cos θ · (y + y 0 ) ! ! cos θ · x − sin θ · y cos θ · x0 − sin θ · y 0 = + sin θ · x + cos θ · y sin θ · x0 + cos θ · y 0 0 x x = Rθ + Rθ y y0 zu (L2):
! cos θ · λx − sin θ · λy sin θ · λx + cos θ · λy ! x cos θ · x − sin θ · y = λ · Rθ y sin θ · x + cos θ · y
λx x = = Rθ Rθ λ λy y =λ·
c) Sei K = R, V = W = R[x] und φ = diff : R[x] −→ R[x] definiert durch n n X X jaj xj−1 aj xj := diff j=0
j=0
Die Abbildung diff ist linear; wir zeigen (L): n1 n2 n X X X diff α a j xj + β bi xi = diff (αaj + βbj )xj j=0
i=0
j=0
=
n X
j(αaj + βbj )xj−1
j=0
n1 n2 X X aj xj + β · diff = α · diff b j xj , j=0
j=0
62
Kapitel 9. Lineare Abbildungen wobei n := max(n1 , n2 ) und aj bzw. bj = 0 f¨ ur j > n1 bzw. n2 gesetzt wurde. d) K = R = W, V = C 0 ([0, 1], R) := {f : [0, 1] −→ R| f ist stetig} ⊂ Abb([0, 1], R). V ist ein Untervektorraum von Abb([0, 1], R). Die Abbildung R1 int = φ : V −→ W, int(f ) := f (t)dt ist linear. 0
e) Seien Kund V = W beliebig. Dann ist φ = idV trivialerweise linear. f) Sei K beliebig und V, W, Z K-Vektorr¨ aume. Seien φ : V −→ W, ψ : W −→ Z linear, dann ist auch ihre Verkettung ψ ◦ φ linear: Seien λ, λ0 ∈ K, v, v 0 ∈ V . Es ist ψ ◦ φ(λv + λ0 v 0 ) = ψ(φ(λv + λ0 v 0 )
= ψ(λφ(v) + λ0 φ(v 0 ))
, da φ linear
= λψ(φ(v)) + λ0 ψ(φ(v 0 )) , da ψ linear 0 0 = λ(ψ ◦ φ)(v) + λ (ψ ◦ φ)(v ) 9.5 Definition. Eine lineare Abbildung φ : V −→ W heißt
falls
Monomorphismus Epimorphismus Isomorphismus Endomorphismus Automorphismus
φ injektiv φ surjektiv φ bijektiv V =W V = W und φ bijektiv
ist. Man sagt, zwei Vektorr¨ aume V und W seien isomorph zueinander (in Zeichen: V ∼ = W ) , falls ein Vektorraumisomorphismus φ : V −→ W zwischen ihnen existiert. 9.6 Bemerkung. Sei φ : V −→ W linear. Ist E ⊂ V ein Erzeugendensystem (EZS), so ist φ(E) ein EZS von φ(V ). Denn ist w ∈ φ(V ), so existiert ein v ∈ V mit φ(v) P = w. Da E ein EZSPvon V ist, gibt es λ1 , . . . , λn ∈ K, v1 , . . . , vn ∈ E mit v = λi vi =⇒ w = φ(v) = λi φ(vi ). 9.7 Definition. Sei φ : V −→ W eine lineare Abbildung. Dann heißt rg(φ) := dim im(φ) der Rang von φ.
9.8 Satz (Dimensionsformel f¨ ur lineare Abbildungen). Sei φ : V −→ W eine lineare Abbildung und dim V < ∞. Dann gilt dim V = dim ker(φ) + rg(φ)
Beweis: a) ker(φ) ⊂ V ist ein Untervektorraum des endlich-dimensionalen Vektorraumes V , damit selbst endlich-dimensional. W¨ ahle eine Basis {v1 , . . . , vk } von ker(φ), k = dim ker(φ) und erg¨ anze diese zu einer Basis {v1 , . . . , vk , vk+1 , . . . , vn } von V , wobei n = dim V . Als Basis ist {v1 , . . . , vn } insbesondere ein EZS von V und somit nach voriger Bemerkung {φ(v1 ), . . . , φ(vn )} ein EZS von φ(V ). Aber: φ(v1 ) = · · · = φ(vk ) = 0 =⇒ {φ(vk+1 ), . . . , φ(vn )} ist ein EZS von φ(V ). b) Behauptung: {φ(vk+1 ), . . . , φ(vn )} ist eine Basis von φ(V ).
63 Beweis: Bleibt lediglich die lineare Unabh¨ angigkeit zu zeigen: Seien λk+1 , . . . , λn ∈ K mit λk+1 φ(vk+1 ) + · · · + λn φ(vn ) = 0 =⇒ φ(λk+1 vk+1 + · · · + λn vn ) = 0
=⇒ λk+1 vk+1 + · · · + λn vn ∈ ker(φ)
=⇒ ∃µ1 , . . . µk ∈ K mit µ1 v1 + · · · + µk vk = λk+1 vk+1 + · · · + λn vn =⇒ −µ1 v1 − · · · − µk vk + λk+1 vk+1 · · · λn vn = 0
=⇒ µi = λj = 0, da v1 , . . . , vn eine Basis von V ist. =⇒ φ(vk+1 ), . . . , φ(vn ) sind linear unabh¨ angig. c) rg(φ) = dim φ(V ) = n − k = dim V − dim ker(φ)
2
9.9 Korollar. Sei φ : V −→ W eine lineare Abbildung und dim V = dim W < ∞. Dann sind ¨aquinvalent: (i) φ ist injektiv (ii) φ ist surjektiv (iii) φ ist bijektiv Beweis:
¨ Es gen¨ ugt die Aquivalenz “(i)⇐⇒ (ii)” zu zeigen: φ ist injektiv ⇐⇒ ker(φ) = {0}
⇐⇒ dim ker(φ) = 0 ⇐⇒ dim V = dim im(φ)
wegen Satz 9.8
⇐⇒ dim W = dim im(φ) ⇐⇒ W = im(φ) wegen Prop. 6.21
⇐⇒ φ ist surjektiv
2 9.10 Achtung. Das Korollar gilt nicht f¨ ur ∞-dimensionale Vektorr¨ aume V . 9.11 Beispiel. Sei K = R, V = R[x], φ = diff : R[x] −→ R[x]. φ ist nicht injektiv, denn ker(φ)={Polynome vom Grad 0} hat Dimension 1, aber φ ist surjektiv.
64
Kapitel 9. Lineare Abbildungen
Kapitel 10
Matrizen 10.1 Definition. Sei K ein K¨ orper. Ein rechteckiges Schema der Form
a11 . . . am1
··· .. . ···
a1n .. . amn
mit aij ∈ K heißt m × n - Matrix mit Eintr¨agen in K. Die Menge der m × nMatrizen mit Eintr¨ agen in K nennen wir M (m × n, K) . Sei φ : K n −→ K m eine lineare Abbildung. Sei 1 0 . 0 .. e1 = .. , . . . , en = . 0 0 1 die Standardbasis von K n . Schreibe a11 a1n . . . . φ(e1 ) = . , . . . , φ(en ) = . am1 amn mit aij ∈ K. Dann heißt
a11 . . M (φ) := . am1
··· .. . ···
a1n .. . amn
die φ darstellende Matrix. v1 . n . Sei nun v = . ∈ K beliebig. vn
66
Kapitel 10. Matrizen
Dann:
φ(v) = φ(v1 e1 + · · · vn en ) = v1 φ(e1 ) + · · · + vn φ(en ) a11 a1n . . . . = v1 . + . . . + vn . am1 amn P n a1j vj j=1 v1 a11 + · · · + vn a1n . . = .. .. = . n P v1 am1 + · · · + vn amn amj vj j=1
Wir definieren f¨ ur A ∈ M (m × n, K) und v ∈ K n die Multiplikation von Matrizen mit Vektoren durch P n a1j vj j=1 v1 a11 + · · · + vn a1n . . = .. .. A · v := . n P v1 am1 + · · · + vn amn amj vj
j=1
Die Definition ist gerade so gemacht, dass φ(v) = M (φ) · v ist. 10.2 Bemerkung. φ und M (φ) bestimmen sich gegenseitig. Wir haben also eine bijektive Abbildung M : {lineare Abbildungen φ : K n −→ K m } −→ M (m × n, K). Sei φ : K n −→ K m linear, ψ : K m −→ K l linear. Wie berechnet sich M (ψ ◦ φ) aus M (ψ) und M (φ)? Antwort: Seien e1 , . . . , en ∈ K n bzw. e01 , . . . , e0m ∈ K m die Standardbasen. Seien
a11 . . M (ψ) = . al1
··· .. . ···
b11 a1m . .. . , M (φ) = .. bm1 alm
c11 . M (ψ ◦ φ) = .. cl1
··· .. . ···
··· .. . ···
c1n .. . cln
b1n .. . , und bmn
67 die zugeh¨ origen darstellenden Matrizen. Dann ist c1j . . = (ψ ◦ φ)(ej ) = ψ(φ(ej )) . clj b1j m X . = ψ( . bkj e0k ) = ψ . k=1 bmj a1k m m X X . 0 = bkj ψ(ek ) = bkj .. k=1 k=1 alk m P a b 1k kj k=1 .. = m . P alk bkj k=1
=⇒ cij =
m P
aik bkj
k=1
Wir definieren nun f¨ ur A ∈ M (l × m, K) und B ∈ M (m × n, K) die Matrixmultiplikation A · B := C ∈ M (l × n, K) von A mit B durch die Formel (A · B)ij := cij =
m X
aik bkj .
k=1
Die Definition ist gerade wieder so gemacht, dass M (ψ ◦ φ) = M (ψ) · M (φ). 10.3 Beispiel. Die Drehmatrix: Sei K = R, n = m = 2 Wir formen um ! ! x cos θ · x − sin θ · y cos θ − sin θ x Rθ = = y y sin θ · x + cos θ · y sin θ cos θ =⇒ M (Rθ ) =
cos θ sin θ
− sin θ cos θ
!
Was ist die darstellende Matrix von Rθ2 ◦ Rθ1 ? Unter Zuhilfenahme der Additionstheoreme liefert eine kurze Rechnung: ! ! cos θ2 − sin θ2 cos θ1 − sin θ1 M (Rθ2 ◦ Rθ1 ) = M (Rθ2 ) · M (Rθ1 ) = sin θ2 cos θ2 sin θ1 cos θ1 ! cos θ2 · cos θ1 − sin θ2 · sin θ1 − cos θ2 · sin θ1 − sin θ2 · cos θ1 = sin θ2 · cos θ1 + cos θ2 · sin θ1 − sin θ2 · sin θ1 + cos θ2 · cos θ1 ! cos(θ1 + θ2 ) − sin(θ1 + θ2 ) = = M (Rθ2 +θ1 ) sin(θ1 + θ2 ) cos(θ1 + θ2 ) =⇒ Rθ2 ◦ Rθ1 = Rθ2 +θ1 . Damit erhalten wir eine geometrische Deutung der trigonometrischen Additionstheoreme: Eine Drehung um die Summe zweier Winkel ist dasselbe wie die Hintereinanderausf¨ uhrung der zwei einzelnen Drehungen um die entsprechenden Winkel.
68
Kapitel 10. Matrizen
10.4 Bemerkung. Im Allgemeinen ist die Verkettung linearer Abbildungen und somit die Matrixmultiplikation nicht kommutativ, z.B.: ! ! 0 1 0 0 A= ,B= 0 0 1 0 1 0 0 0
!
= A · B 6= B · A =
! 0 0 0 1
Es gilt aber die folgende 10.5 Bemerkung. Die Matrixmuliplikation ist assoziativ, d.h. (A · B) · C = A · φ
ψ
χ
(B · C), denn sind K n −→ K m −→ K l −→ K r linear, so ist
M (χ ◦ ψ ◦ φ) = M (χ ◦ (ψ ◦ φ)) = M (χ) · (M (ψ ◦ φ))
= M (χ) · (M (ψ) · M (φ)),
und andererseits M (χ ◦ ψ ◦ φ) = M ((χ ◦ ψ) ◦ φ)) = M (χ ◦ ψ) · M (φ) = (M (χ) · M (ψ)) · M (φ). 10.6 Bemerkung. Sei φ : K n −→ K m linear. Dann ist rg(φ) = dim im(φ) = dim φ(K n ) = dim φ spanK (e1 , . . . , en )
= dim spanK φ(e1 ), . . . , φ(en ) = maximale Anzahl der linear unabh¨ angigen Spaltenvektoren von M (φ).
10.7 Beispiel. Sei K = R, ψ, φ : R3 −→ R2 mit darstellenden Matrizen M (ψ), M (φ): ! 1 2 3 =⇒ rg(φ) = 1 M (φ) = 2 4 6 ! 1 2 −1 M (ψ) = =⇒ rg(φ) = 2 2 0 5 10.8 Definition. F¨ ur eine Matrix A definieren wir den Rang rg(A) als die maximale Anzahl linear unabh¨ angiger Spalten von A. 10.9 Bemerkung. Die Definition ist gerade wieder so gemacht, dass rg(φ) = rg(M (φ)).
Kapitel 11
Affine Unterr¨ aume und affine Abbildungen 11.1 Notation. Sei V ein K-Vektorraum. Sei A ⊂ V eine Teilmenge, sei v ∈ V . Dann schreiben wir f¨ ur die in Richtung v verschobene Menge v + A := {v + a| a ∈ A}. 11.2 Definition. Eine Teilmenge A ⊂ V der Form A = v + W , wobei v ∈ V und W ⊂ V Untervektorraum, heißt affiner Unterraum von V . 11.3 Bemerkung. Ist A = v + W affiner Unterraum eines K-Vektorraums V , so gilt a) W = {a − a0 | a, a0 ∈ A} b) v + W = v 0 + W ⇐⇒ v − v 0 ∈ W Beweis: zu a): Wir zeigen zuerst ⊂“. Sei dazu w ∈ W . Setze a := v + w, a0 := ” v + 0 ∈ A =⇒ w = a − a0 . ⊃“: Sei a, a0 ∈ A. Schreibe a = v + w, a0 = v + w0 =⇒ a − a0 = w − w0 ∈ W . ” zu b): Wir zeigen zuerst die Beweisrichtung =⇒“. Es ist v = v + 0 ∈ v + W = ” v 0 + W =⇒ ∃w ∈ W mit v = v 0 + w =⇒ v − v 0 = w ∈ W . Zur Beweisrichtung ⇐=“: Sei v − v 0 ∈ W . Zu zeigen: v + W = v 0 + W . Sei dazu ” v+w ∈ v+W 0 =⇒ v + w = v + (v − v 0 ) + |{z} w ∈ v 0 + W . Dies zeigt ⊂“. Die andere Inklusion ” | {z } |
∈W
⊃“ zeigt man analog. ”
{z
∈W
∈W
}
Fazit: In der Darstellung A = v + W eines affinen Unterraums ist der Untervektorraum W durch A eindeutig bestimmt. Daher wird W der zu A geh¨orige Untervektorraum genannt. Als Fußpunkt“ eignet sich hingegen jedes v ∈ A, denn: Ist ” A = v + W , so ist v = v + 0 ∈ v + W = A. Ist nun v 0 ∈ A beliebig, so ist v − v 0 ∈ W und nach b) somit v 0 + W = v + W = A. 11.4 Definition. Sei V ein K-Vektorraum und A ⊂ V ein affiner Unterraum mit zugeh¨ origem Untervektorraum W ⊂ V . Dann heißt dim A := dim W die Dimension des affinen Unterraums A.
70
Kapitel 11. Affine Unterr¨ aume und affine Abbildungen
11.5 Beispiel. Sei K = R, V = R2 . Frage: Welches sind die affinen Unterr¨ aume A von V ? dim A = 0: d.h. dim W = 0, also muss W = {0} sein. =⇒ A = v + W = {v + 0} = {v}, v ∈ V. Daher {0-dim. affine Unterr¨ aume von V } = {v}| v ∈ V .
dim A = 1: d.h. dim W = 1, also muss W von der Form W = {λ · w| λ ∈ R} = G0,w , 0 6= w ∈ R2 sein, also die Ursprungsgeraden. =⇒ A = v + W = {v + λ · w| λ ∈ R} = Gv,w . Daher {1-dim. affine Unterr¨ aume von V } = {Geraden}.
dim A = 2: d.h. dim W = 2, also muss W = V sein. =⇒ A = v + W = v + V = V , da v − 0 ∈ V = W . Daher {2-dim affine Unterr¨ aume von V } = {V }. Nulldimensionale affine Unterr¨ aume nennt man i. Allg. Punkte und ein- bzw. zweidimensionale affine Unterr¨ aume nennt man i. Allg. Geraden bzw. Ebenen. 11.6 Bemerkung. Ein affiner Unterraum A ist ein Untervektorraum ⇐⇒ 0 ∈ A. T Ai entweder leer 11.7 Bemerkung. Sind Ai ⊂ V, i ∈ I affine Unterr¨ aume, so ist i∈I T T Ai , Ai 6= ∅, dann w¨ ahle ein v ∈ oder selbst ein affiner Unterraum, denn: Sei i∈I
i∈I
d.h. v ∈ Ai ∀i ∈ I =⇒ die Ai ’s lassen sich schreiben als Ai = v + Wi mit zugh¨ origen Untervektorr¨ aumen Wi =⇒ \ \ Ai = (v + Wi ) i∈I
i∈I
= {v + w| w ∈ Wi ∀i ∈ I} \ = {v + w| w ∈ Wi } i∈I
\
=v+
Wi
i∈I
| {z } ist ein Untervektorraum.
11.8 Beispiel. Sei K = R, V = R3 . 1. Fall:
A1
A2
A1 ∩ A 2 = ∅
2. Fall:
A1
3. Fall:
A2
A1
A2
A1 ∩ A2 = Punkt A1 ∩ A2 = Gerade
11.9 Definition. Seien V, W beides K-Vektorr¨ aume. F : V −→ W heißt eine affine Abbildung, falls es eine lineare Abbildung φ : V −→ W und ein w ∈ W gibt, so dass f¨ ur alle v ∈ V gilt: F (v) = φ(v) + w. φ und w sind durch F bestimmt, denn w = F (0) und φ(v) = F (v) − F (0). 11.10 Satz. Seien V, W, Z drei K-Vektorr¨aume, seien F : V −→ W und G : W −→ Z affine Abbildungen. Dann gilt:
71 a) G ◦ F ist affin. b) Ist A ⊂ V ein affiner Unterraum, so ist auch F (A) ⊂ W ein affiner Unterraum. c) Ist B ⊂ W ein affiner Unterraum, so ist F −1 (B) auch ein affiner Unterraum oder leer. d) Ist F (v) = φ(v) + w, wobei φ eine lineare Abbildung ist, so gilt F ist injektiv ⇐⇒ φ ist injektiv F ist surjektiv ⇐⇒ φ ist surjektiv.
und
Beweis. Zu a) Schreibe F (v) = φ(v) + w, G(w 0 ) = ψ(w0 ) + z mit φ : V −→ W, ψ : W −→ Z linear und w ∈ W, z ∈ Z. Dann ist (G ◦ F )(v) = G(F (v))
= ψ(F (v)) + z = ψ(φ(v) + w) + z = ψ(φ(v)) + ψ(w) + z = (ψ ◦ φ) (v) + ψ(w) + z | {z } | {z } ∈Z ist linear
∀v ∈ V.
Zu b) Schreibe A = v0 + V 0 , wobei v0 ∈ V und V 0 ein Untervektorraum von V ist. Schreibe F (v) = φ(v) + w mit φ linear und w ∈ W . Es ist F (A) = φ(A) + w = φ(v0 + V 0 ) + w = φ(v0 ) + φ(V 0 ) + w = φ(v0 ) + w + φ(V 0 ) | {z } | {z } ∈W
Untervektorraum von W.
Zu c) Sei F −1 (B) 6= ∅. Zu zeigen: F −1 (B) ist ein affiner Unterraum von V . Sei v0 ∈ F −1 (B). Setze w0 := F (v0 ) ∈ B. Schreibe B = w0 + W 0 , wobei W 0 ⊂ W der zu B geh¨ orige Untervektorraum sei. Schreibe F (v) = φ(v) + w wie gehabt. Nun gilt:
F −1 (B) = {v ∈ V | F (v) ∈ B} = {v ∈ V | φ(v) + w ∈ w0 + W 0 }
= {v ∈ V | φ(v) + w ∈ φ(v0 ) + w + W 0 } = {v ∈ V | φ(v) ∈ φ(v0 ) + W 0 } = {v ∈ V | φ(v) − φ(v0 ) ∈ W 0 } = {v ∈ V | φ(v − v0 ) ∈ W 0 } = {v ∈ V | v − v0 ∈ φ−1 (W 0 )}
= {v ∈ V | v ∈ v0 + φ−1 (W 0 )}
= v0 +
φ−1 (W 0 ) | {z }
Untervektorraum von V.
72
Kapitel 11. Affine Unterr¨ aume und affine Abbildungen
Zu d) Es ist F = T ◦ φ, wobei T (x) = x + w die Translation um w ist. Offenbar ist T bijektiv mit Umkehrabbildung T −1 (y) = y − w. Daraus folgt nun die Aussage unmittelbar. 11.11 Bemerkung. Ein wichtiger Spezialfall von c) ergibt sich, wenn B = {b} und F = φ linear ist. Dann besagt c): φ−1 (b) ist leer oder ein affiner Unterraum. Ist φ−1 (b) 6= ∅ und a ∈ φ−1 (b), so gilt außerdem: φ−1 (b) = a + ker F . Denn f¨ ur a + v, v ∈ ker F ist F (a + v) = F (a) + F (v) = F (a) = b, | {z } =0
d.h. a + v ∈ φ−1 (b), was ⊃“ beweist. F¨ ur ⊂“ sei a0 ∈ φ−1 (b) beliebig. Schreibe ”0 ” 0 0 a = a+(a −a). Zu zeigen: a −a ∈ ker F . Es ist F (a0 −a) = F (a0 )−F (a) = b−b = 0. Affine Unterr¨ aume stellen also eine Verallgemeinerung des Konzepts von Untervektorr¨ aumen dar, affine Abbildungen sind allgemeiner als lineare Abbildungen. Die folgenden Schemata sollen verdeutlichen, wie die verschiedenen Begriffe zusammenh¨ angen. Seien V, W beide K-Vektorr¨ aume: alle Teilmengen von V alle Abb. V −→ W affine Unterr¨ aume affine Abb. V −→ W
Untervektorr¨ aume
K-lineare Abb. V −→ W
Kapitel 12
Die allgemeine lineare Gruppe 12.1 Notation. Seien V, W beide K-Vektorr¨ aume. Wir definieren HomK (V, W ) := {φ : V −→ W | φ ist linear} EndK (V ) := HomK (V, V ) AutK (V ) := {φ ∈ EndK (V ) | φ ist bijektiv} 12.2 Bemerkung. AutK (V ) ist eine Untergruppe von (S(V ), ◦). Wir haben eine bijektive Abbildung M : HomK (K n , K m ) −→ M (m × n, K), φ 7→ M (φ), so dass M (ψ◦φ) = M (ψ)·M (φ). Im Spezialfall m = n erhalten wir eine bijektive Abbildung M : EndK (K n ) −→ M (n, K), wobei M (n, K) := M (n × n, K) die Menge der quadratischen Matrizen bezeichne. 12.3 Definition. Eine Matrix A ∈ M (n, K) heißt invertierbar, falls es eine Matrix A−1 gibt mit 1 0 .. . A · A−1 = A−1 · A = n := . 0 1
Die Menge GL(n, K) := {A ∈ M (n, K) | A ist invertierbar} heißt die allgemeine lineare Gruppe.
12.4 Bemerkung. Sei φ ∈ EndK (K n ). Dann ist φ ∈ AutK (K n ) ⇐⇒ M (φ) ∈ GL(n, K). Wir zeigen zuerst =⇒“. Sei φ ∈ AutK (K n ). Dann ist M (φ)M (φ−1 ) = ” M (φ ◦ φ−1 ) = M (idK n ) = n . Analog sieht man M (φ−1 )M (φ) = n . Also ist M (φ) invertierbar mit Inversem M (φ)−1 = M (φ−1 ). Ist umgekehrt M (φ) invertierbar, so definiere die lineare Abbildung ψ : K n −→ K n , ψ(x) := M (φ)−1 · x. Sie ist invers zu φ, denn ψ ◦ φ(x) = ψ(φ(x)) = ψ(M (φ) · x)
= M (φ)−1 (M (φ) · x) = (M (φ)−1 M (φ)) · x = n · x = x.
Analog zeigt man φ ◦ ψ = idK n =⇒ φ ist bijektiv mit Inversem φ−1 = ψ.
12.5 Bemerkung. Die Abbildung M : AutK (K n ) −→ GL(n, K) ist ein Gruppenhomomorphismus.
12.6 Bemerkung. Sei φ ∈ EndK (K n ). Dann gilt: φ ist bijektiv ⇐⇒ φ ist surjektiv ⇐⇒ im(φ) = K n ⇐⇒ rg(φ) = dim im(φ) = n Also: A ∈ M (n, K) ist invertierbar ⇐⇒ rg(A) = n ⇐⇒ Spaltenvektoren von A sind linear unabh¨ angig.
74
Kapitel 12. Die allgemeine lineare Gruppe
Wir betrachten einige Typen von invertierbaren Matrizen, d. h. von Elementen der allgemein linearen Gruppe. 12.7 Beispiele. a) n = 1. Sei A = (a) ∈ M (1, K). Somit: A ist invertierbar ⇐⇒ a 6= 0. Dann ist A−1 = (1/a). b)
ist invertierbar mit
−1 n
=
c) Seien λ1 , . . . , λn ∈ K. Setze λ1 ∆(λ1 , . . . , λn ) := 0
n.
0 ..
. λn
∈ M (n, K) (Diagonalmatrix).
Das Produkt zweier Diagonalmatizen ist wieder eine Diagonalmatrix. Ist n¨ amlich ∆(µ1 , . . . , µn ) mit µi ∈ K eine weitere Diagonalmatrix, so rechnet man leicht nach, dass ∆(λ1 , . . . , λn ) · ∆(µ1 , . . . , µn ) = ∆(λ1 µ1 , . . . , λn µn ).
Aus dieser Formel, aber auch direkt aus der Definition der Diagonalmatrix sieht man, dass ihr Rang maximal, also n ist g.d.w. alle Eint¨ age λi 6= 0 sind. Das Inverse einer Diagonalmatrix ∆(λ1 , . . . , λn ), dessen Eintr¨ age λi alle 6= 0 sind, ist offenbar gegeben durch ∆(1/λ1 , . . . , 1/λn ). Ist A ∈ M (m × n, K), so ergibt sich A · ∆(λ1 , . . . , λn ) aus A, indem man die i-te Spalte von A mit λi multipliziert, denn: i-te Spalte von A · ∆(λ1 , . . . , λn ) = A · ∆(λ1 , . . . , λn ) · ei = A · λi ei = λi A · ei = λi · (i-te Spalte von A)
F¨ ur A ∈ M (n × m, K) ergibt sich analog ∆(λ1 , . . . , λn ) · A aus A, indem man die i-te Zeile von A mit λi multipliziert. d) F¨ ur 1 ≤ i < j ≤ n setze 1 .. . 0 0 ··· 0 ··· . τn (i, j) := .. 0 ··· 0 ··· 0 ··· . .. 0 ···
0 0 .. . 1 0 0 0 0 0 .. .. . . 0 0 0 1 0 0 .. .. . . 0 0
0 ··· .. . 0 ··· 0 ··· 1 .. .
0 .. . 0 0 0
0 0 ··· 0 ··· .. . 0 ···
1 0 0 .. . 0
i-te Spalte
0 .. . 0 1 0 .. . 0 0 0 .. . 0
0 .. . 0 0 0 .. . 0 0 1
··· ··· ··· ··· ··· ··· ..
0 .. . 0 0 0 .. . 0 0 0
.
0
j-te Spalte
1
i-te Zeile j-te Zeile
Man berechnet τn (i, j)τn (i, j) = n =⇒ τn (i, j)−1 = τn (i, j). Ist A ∈ M (m × n, K), so ergibt sich A · τn (i, j) aus A, indem man die i-te mit der j-ten Spalte
75 vertauscht. Denn: A · τn (i, j) · ek
A · τn (i, j) · ei A · τn (i, j) · ej
= A · ek = A · ej = A · ei
f¨ ur k 6= i, j
F¨ ur A ∈ M (n × m, K) ergibt sich analog τn (i, j) · A aus A, indem man die i-te Zeile von A mit der j-ten vertauscht. e) F¨ ur 1 ≤ i, j ≤ n, i 6= j und λ ∈ K setze 1 0 . 1 .. .. . .. δn (i, j, λ) := . 1 .. . 0 0 0 λ 0 ··· 0 i-te Spalte
Es gilt δn (i, j, λ) · δn (i, j, −λ) = liefert δn (i, j, −λ) · δn (i, j, λ) = δn (i, j, λ)−1 = δn (i, j, −λ). Denn:
n n
..
.
j-te Zeile 0 1
∀λ ∈ K. Die Substitution λ ; −λ =⇒ δn (i, j, λ) ist invertierbar und
F¨ ur k 6= i ist δn (i, j, λ) · δn (i, j, −λ) · ek = δn (i, j, λ) · ek = ek ; f¨ ur k = i ist δn (i, j, λ) · δn (i, j, −λ) · ei = δn (i, j, λ) · (ei − λej )
= δn (i, j, λ) · ei − λδn (i, j, λ) · ej = ei + λej − λej = ei .
F¨ ur A ∈ M (m × n, K) ergibt sich A · δn (i, j, λ) aus A, indem man das λ-fache der j-ten Spalte zur i-ten addiert. Denn: F¨ ur k 6= i ist A · δn (i, j, λ) · ek = A · ek und f¨ ur k = i ist A · δn (i, j, λ) · ei = A · (ei + λej ) = A · ei + λA · ej . Analog erh¨ alt man f¨ ur A ∈ M (n×m, K) die Matrix δn (i, j, λ)·A aus A, indem man das λ-fache der i-ten Zeile zur j-ten addiert. 12.8 Definition. Die Matrizen der Form ∆(1, . . . , 1, λ, 1, . . . , 1), τn (i, j), δn (i, j, µ), mit λ, µ ∈ K, λ 6= 0, nennt man Elementarmatrizen.
76
Kapitel 12. Die allgemeine lineare Gruppe
Kapitel 13
Lineare Gleichungsysteme 13.1 Definition. Sei K ein K¨ orper. Ein lineares Gleichungssystem (kurz: LGS) ist ein System von Gleichungen der Form a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .................................... am1 x1 + am2 x2 + · · · + amn xn = bm . Dabei sind aij ∈ K und bi ∈ K gegeben und die xi ∈ K gesucht. Sind b1 = · · · = bm = 0, so heißt das Gleichungssystem homogen, ansonsten inhomogen. Tauscht man in einem inhomogenen LGS alle bi ’s gegen Nullen aus, so heißt das so entstandene LGS zum urspr¨ unglichen zugeh¨orig. In Matrixschreibweise: b1 a11 · · · a1n . . . m . . .. .. A = .. ∈ M (m × n, K), b = . ∈ K ; bm am1 · · · amn Gesucht ist die L¨ osungsmenge Lsg(A, b) := {x ∈ K n | A · x = b}. Dabei heißt A die Koeffizientenmatrix des linearen Gleichungssystems und a11 · · · a1n b1 . .. .. .. . (A, b) = . . . ∈ M (m × (n + 1), K) . am1 · · · amn bm
heißt erweiterte Koeffizientenmatrix. Sei φ : K n −→ K m eine lineare Abbildung und A := M (φ) ∈ M (m×n, K), b ∈ K m . Aus dem vorangegangen wissen wir bereits, dass die L¨ osungsmenge Lsg(A, b) = {x ∈ K n | A · x = b} des LGS A · x = b entweder leer ist oder ein affiner Unterraum vom K n . Ist nun v ∈ Lsg(A, b), so ist nach Bemerkung 11.11 Lsg(A, b) = φ−1 (b) = v + ker(φ) = v + Lsg(A, 0), d.h. man muss die allgemeine L¨ osung des zugeh¨ origen homogenen LGS zu einer speziellen L¨ osung des inhomogen LGS A · x = b addieren, um die allgemeine L¨ osung des inhomogen LGS zu bekommen.
78
Kapitel 13. Lineare Gleichungsysteme
Frage: Wann ist so ein LGS l¨ osbar? Setze r := rg(A) = = maximale Anzahl linear unabh¨ angiger Spaltenvektoren von A. Dann ist ( r falls b linear von den Spaltenvektoren von A abh¨ angt, rg(A, b) = r + 1 sonst. Ist b linear abh¨ angig von den Spaltenvektoren φ(ei ), i = 1, . . . , n, von A, dann existieren x1 , . . . , xn ∈ K, so dass x1 x1 n n X X . . b= xi φ(ei ) = φ( xi ei ) = φ .. =⇒ .. ∈ Lsg(A, b), i=1 i=1 xn xn also Lsg(A, b) 6= ∅. Umgekehrt: Ist Lsg(A, b) 6= ∅, so existiert ein x1 . . ∈ Lsg(A, b), . xn
und somit x1 n . X .. = xi φ(ei ) =⇒ b ist linear abh¨ angig von den Spaltenvektoren von A b = φ i=1 xn
=⇒ rg(A, b) = rg(A). Damit erhalten wir eine Antwort auf die obige Frage, die wir zusammenfassen in dem folgenden 13.2 Satz. Sei φ : K n −→ K m linear und A = M (φ), b ∈ K m . Dann gilt: a) Lsg(A, b) 6= ∅ ⇐⇒ b ∈ im(φ) ⇐⇒ rg(A, b) = rg(A); b) Lsg(A, b) = ∅ ⇐⇒ b ∈ / im(φ) ⇐⇒ rg(A, b) = rg(A) + 1; c) Lsg(A, b) 6= ∅ und v ∈ Lsg(A, b), so ist Lsg(A, b) ein affiner Unterraum vom K n der Dimension n − rg(A), genauer: Lsg(A, b) = v + Lsg(A, 0). Beweis:
bleibt nur noch die Formel f¨ ur die Dimension von Lsg(A, b) zu begr¨ unden: dim Lsg(A, b) = dim(v + ker(φ)) = dim ker(φ) = n − rg(φ)
wegen Dimensionsformel
= n − rg(A) 2
Frage: Wie berechnen wir Lsg(A, b) f¨ ur gegebenes A und b? 13.3 Definition. Eine Matrix A ∈ M (m × n, K) ist in Zeilenstufenform (kurz: ZSF), falls f¨ ur alle i = 2, . . . , m gilt: Sind die ersten (k − 1) Eintr¨ age der (i − 1)-ten Zeile gleich 0, so sind auch die ersten k Eintr¨ age der i-ten Zeile gleich 0, wobei k = 1, . . . , n. 13.4 Beispiel.
! ! ! 0 1 0 1 5 9 0 0 0 , , 0 0 5 0 0 0 0 0 0
79 sind in ZSF, dagegen sind ! ! ! 0 0 1 0 0 0 3 5 7 , , 0 1 0 0 0 1 1 2 4 nicht in ZSF. 13.5 Definition. Eine Matrix A ∈ M (m × n, K) in ZSF heißt in spezieller Zeilenstufenform, falls f¨ ur alle i = 1, . . . , m gilt: Ist ai1 = · · · = ai k−1 = 0 und ist aik 6= 0, so ist aik = 1. 13.6 Beispiel. ! ! ! 0 0 0 1 5 9 0 1 0 , sind in spezieller ZSF, aber ist es nicht. 0 0 0 0 0 0 0 0 5 13.7 Bemerkung. Ist (A, b) die erweiterte Koeffizientenmatrix eines LGS und ist A in ZSF, so gilt: Lsg(A, b) = ∅ ⇐⇒ es gibt ein i ∈ {1, . . . , m}, so dass die i-te Zeile von A nur aus Nullen besteht, aber bi 6= 0. Denn: Existiert ein solches i, dann besagt die i-te Gleichung des LGS 0 = ai1 x1 + · · · + ain xn = bi 6= 0, was f¨ ur kein
x1 . . ∈ Kn . xn
erf¨ ullt werden kann. Ist umgekehrt f¨ ur alle i ∈ {1, . . . , m} die i-te Zeile nur dann aus Nullen bestehend, wenn auch bi = 0, so k¨ onnen wir Lsg(A, b) wie folgt berechnen: L¨ ose sukzessive die Gleichungen vom LGS von unten nach oben. 13.8 Beispiel.
1 2 4 4 (A, b) = 0 0 1 5 0 0 0 0
1x + 2x + 4x = 4 x1 1 2 3 Lsg(A, b) = x2 ∈ K 3 0x1 + 0x2 + 1x3 = 5 x3 x1 3 = x2 ∈ K x3 = 5, x1 + 2x2 + 4 · 5 = 5 x3 x1 = x2 ∈ K 3 x3 = 5, x1 = −16 − 2x2 , x2 beliebig x3 −16 − 2x2 3 = x2 ∈ K x2 beliebig 5
80
Kapitel 13. Lineare Gleichungsysteme
Frage: Was tun, wenn A nicht in ZSF vorliegt? ¨ Antwort: Andere das LGS so ab, dass sich die L¨ osungsmenge nicht a ¨ndert und A in ZSF u berf¨ u hrt wird. ¨ Frage: Aber wie? Beobachtung: Ist T ∈ GL(n, K), dann ist: Lsg(A, b) = Lsg(T A, T b) = Lsg(T · (A, b)) Denn: Ist x ∈ Lsg(A, b), dann A · x = b =⇒ T · A · x = T · b =⇒ x ∈ Lsg(T A, T b). Ist umgekehrt x ∈ Lsg(T A, T b), dann T Ax = T b =⇒ T −1 T · A · x = T −1 T · b =⇒ Ax = b =⇒ x ∈ Lsg(A, b) 13.9 Beispiele. a) Sei T = ∆(1, . . . , 1, λ, 1, . . . , 1), λ 6= 0. Dann entsteht T · (A, b) aus (A, b), indem eine Zeile von (A, b) mit λ multipliziert wird. b) Ist T = τn (i, j), dann entsteht T ·(A, b) aus (A, b), indem zwei Zeilen vertauscht werden. c) Ist T = δn (i, j, µ), µ ∈ K, dann entsteht T ·(A, b) aus (A, b), indem das µ-fache einer Zeile zu einer anderen Zeile addiert wird. 13.10 Definition. Unter elementaren Zeilenumformungen einer Matrix versteht man: ~ Multiplikation einer Zeile mit einem λ ∈ K − {0}. ~ Vertauschung zweier Zeilen ~ Addition des Vielfachen einer Zeile zu einer anderen Zeile. Wir haben gezeigt: ˜ ˜b) aus (A, b) durch elementare Zeilenumformungen, so ist 13.11 Satz. Entsteht (A, ˜ ˜ Lsg(A, b) = Lsg(A, b). ¨ Rezept zur Uberf¨ uhrung einer beliebigen Matrix in die spezielle ZSF durch elementare Zeilenumformungen: a) Vertausche Zeilen so, dass in der ersten Zeile das erste Element 6= 0 nicht weiter rechts steht als bei allen anderen. b) Multipliziere Zeilen mit geeigneten λ ∈ K − {0} so, dass in den Zeilen, bei denen der erste Eintrag 6= 0 an der gleichen Stelle steht wie in der ersten Zeile, das erste Element 6= 0 genau 1 wird. c) Subtrahiere die erste Zeile von allen anderen, bei denen das erste Element 6= 0 an der gleichen Stelle steht wie bei der ersten Zeile. d) Wende die Schritte a)-c) auf die Teilmatrix an, die durch Streichen der ersten Zeile entsteht, falls die spezielle ZSF noch nicht erreicht ist. 13.12 Beispiel. 0 1 1 5 1) ; 5 10 −20 0 2 8 4 2 1 2 1 2 −4 5) 0 1 1 ; 0 1 0 1 0 2 6
10 −20 1 2) ; 1 1 0 8 4 2 1 2 −4 6) 1 ; 0 1 0 0 3
2 −4 1 3) ; 1 1 0 8 4 1 1 2 −4 7) 1 ; 0 1 0 0 2
2 −4 4) 1 1 ; 4 2 −4 1 1
81 1) Vertauschen von erster und zweiter Zeile. 2) Multiplikation der ersten Zeile mit 1/5. 3) Multiplikation der dritten Zeile mit 1/2. 4) Subtraktion der ersten von der dritten Zeile. 5) Multiplikation der dritten Zeile mit 1/2. 6) Subtraktion der zweiten von der dritten Zeile. 7) Multiplikation der dritten Zeile mit 1/2. Gauß’scher Algorithmus zur L¨ osung linearer Gleichungssysteme: A) Stelle erweiterte Koeffizientenmatrix (A, b) auf. ˜ ˜b) so, dass A˜ ¨ B) Uberf¨ uhre (A, b) durch elementare Zeilenumformungen in (A, ZSF hat. (Spezielle ZSF ist nicht gefordert.) ˜ ˜b) = ∅. ¨ C) Uberpr¨ ufe, ob Lsg(A, D) Falls nicht, l¨ ose LGS A˜ · x = ˜b sukzessive von unten nach oben.
82
Kapitel 13. Lineare Gleichungsysteme
Kapitel 14
Geometrie der Ebene, Teil 2 Wir konzentrieren uns auf den Fall K = R und V = R2 . Die Geraden im R2 sind genau die eindimensionalen affinen Unterr¨ aume. Drehmatrizen: Betrachte M (Rθ ) =
cos θ sin θ
− sin θ cos θ
!
.
Es gilt f¨ ur alle v ∈ R2 : kRθ (v)k = kvk und hRθ (v), vi = cos θ · kvk2 , denn: kRθ (v)k2 = hRθ (v), Rθ (v)i cos θ · v1 − sin θ · v2 cos θ · v1 − sin θ · v2 , = sin θ · v1 + cos θ · v2 sin θ · v1 + cos θ · v2 = (cos θ · v1 − sin θ · v2 )2 + (sin θ · v1 + cos θ · v2 )2 = (cos θ)2 · v12 − 2 cos θ sin θ · v1 · v2 + (sin θ)2 · v22
+ (sin θ)2 · v12 + 2 cos θ sin θ · v1 · v2 + (cos θ)2 · v22
= v12 + v22 = hv, vi = kvk2 ; hRθ (v), vi =
v1 cos θ · v1 − sin θ · v2 , v2 sin θ · v1 + cos θ · v2
= cos θ · v12 − sin θ · v2 · v1 + sin θ · v1 · v2 + cos θ · v22
= cos θ · hv, vi = cos θ · kvk2 .
Im Fall kvk = 1 hat man folgende geometrische Interpretation: Rθ (v)
θ − | −{z−−} cos θ
v
84
Kapitel 14. Geometrie der Ebene, Teil 2
speziell: f¨ ur θ = π/2 setze J := M (Rπ/2 ) =
cos π/2 − sin π/2 sin π/2 cos π/2
!
=
! 0 −1 . 1 0
14.1 Definition. Die Menge SO(2) := {M (Rθ ) | θ ∈ R} heißt spezielle orthogonale Gruppe von R2 . 14.2 Satz. SO(2) ist ein abelsche Untergruppe von GL(2, R). Beweis: Wir erinnern uns: Rθ1 ◦ Rθ2 = Rθ1 ◦ Rθ2 f¨ ur alle θ1 , θ2 ∈ R. zu UG1): 2 = M (R0 ) ∈ SO(2) zu UG2): M (Rθ1 ) · M (Rθ2 ) = M (Rθ1 +θ2 ) ∈ SO(2). zu UG3): M (Rθ )−1 = M (Rθ−1 ) = M (R−θ ) ∈ SO(2). =⇒ SO(2) ⊂ GL(2, R) ist Untergruppe. M (Rθ1 ) · M (Rθ2 ) = M (Rθ1 +θ2 ) = M (Rθ2 +θ1 ) = M (Rθ2 ) · M (Rθ1 ) =⇒ SO(2) ist abelsch. 2 Sei f¨ ur θ ∈ R nun Sθ : R2 −→ R2 die lineare Abbildung mit der darstellenden Matrix ! cos(2θ) sin(2θ) M (Sθ ) = . sin(2θ) − cos(2θ) Notation: O(2)− := {M (Sθ ) | θ ∈ R} 14.3 Bemerkung. O(2)− ist keine Untergruppe von GL(2, R), denn
2
∈ / O(2)− .
Unter Verwendung der Additionstheoreme f¨ ur cos und sin rechnet man leicht die folgenden Relationen f¨ ur alle θ1 , θ2 ∈ R nach: M (Sθ1 ) · M (Sθ2 ) = M (R2(θ1 −θ2 ) )
M (Sθ1 ) · M (Rθ2 ) = M (Sθ1 −θ2 /2 )
M (Rθ1 ) · M (Sθ2 ) = M (Sθ2 +θ1 /2 ), d.h. Sθ 1 ◦ S θ 2 Sθ 1 ◦ R θ 2
R θ1 ◦ S θ2
= R2(θ1 −θ2 ) = Sθ1 −θ2 /2
(14.1) (14.2)
= Sθ2 +θ1 /2
(14.3)
speziell: θ1 = θ2 = θ M (Sθ ) ·
cos θ sin θ
− sin θ cos θ
!
= M (Sθ/2 )
Setzt man vθ := Rθ (e1 ) =
cos θ sin θ
und wθ := Rθ (e2 ) =
− sin θ , cos θ
85
e2 wθ
vθ θ θ e1
so gilt M (Sθ ) · vθ = M (Sθ ) · M (Rθ ) · e1 = M (Sθ/2 )e1 = vθ sowie M (Sθ ) · wθ = M (Sθ ) · M (Rθ ) · e2 = M (Sθ/2 )e2 = −wθ . Da dim spanR {vθ , wθ } = dim im(Rθ ) = rg(Rθ ) = 2 ∀θ ∈ R, bilden die Vektoren vθ , wθ f¨ ur beliebige θ ∈ R eine Basis von R2 . F¨ ur beliebiges v ∈ R2 ausgedr¨ uckt in dieser Basis v = αvθ + βwθ mit α, β ∈ R gilt dann
v
βwθ Sθ (v) = Sθ (αvθ + βwθ ) = αSθ (vθ ) + βSθ (wθ ) = αvθ − βwθ
wθ vθ
=⇒ Sθ ist die Spiegelung an der Achse spanR {vθ }.
speziell: M (Sθ ) · M (Sθ ) = M (R0 ) =
2
αvθ
Sθ (v)
=⇒ M (Sθ ) = M (Sθ )−1 .
Geometrische Interpretation der Gleichungen (14.1),(14.2),(14.3): z.B. Gleichung (14.1): Sθ1 ◦ Sθ2 = R2(θ1 −θ2 ) Sθ1 (Sθ2 (e1 )) δ
Sθ1 (Sθ2 (e1 )) = Sθ1 (v2θ2 ) = vθ1 +δ = v2(θ1 −θ2 )
Sθ2 (e1 ) = v2θ2
(θ1 + δ)
θ1
θ2 e1
δ = θ1 − 2θ2
14.4 Definition. Die Menge O(2) := SO(2) ∪ O(2)− heißt orthogonale Gruppe von R2 . 14.5 Satz. O(2) ist eine Untergruppe von GL(2, R).
86
Kapitel 14. Geometrie der Ebene, Teil 2
Beweis: 2 ∈ SO(2) ⊂ O(2). Die Gleichungen (14.1)-(14.3) zeigen, dass Produkte von Elementen aus O(2) wieder in O(2) enthalten sind. M (Rθ )−1 = M (R−θ ) ∈ O(2) M (Sθ )−1 = M (Sθ ) ∈ O(2)
=⇒ O(2) ist eine Untergruppe von GL(2, R).
2
14.6 Bemerkung. O(2) ist nicht abelsch, denn z.B. M (S0 ) · M (Rπ/2 ) = M (S−π/4 ) 6= M (Rπ/2 ) · M (S0 ) = M (Sπ/4 ) 14.7 Satz. O(2) = {T ∈ GL(2, R) | hT x, T yi = hx, yi
∀x, y ∈ R2 }
Beweis: ⊂:“ Eine leichte Rechnung f¨ ur T = M (Rθ ) und T = M (Sθ ) zeigt, ” dass hT x, T yi = hx, yi ∀x, y ∈ R2 gilt. ⊃:“ Sei T ∈ GL(2, R) mit hT x, T yi = hx, yi ∀x, y ∈ R2 . Speziell f¨ ur x = y = e1 ” erhalten wir kT e1 k2 = hT e1 , T e1 i = he1 , e1 i = ke1 k2 = 1 cos θ =⇒ kT e1k = 1 =⇒ ∃θ ∈ R : T e1 = sin θ
Analog sieht man kT e2k = 1 und außerdem gilt
hT e1 , T e2 i = he1 , e2 i = 0 =⇒ T e1 ⊥ T e2 − sin θ =⇒ T e2 = J(T e1 ) = cos θ
J(T e1 ) T e1 θ
oder T e2 = −J(T e1 ) =
e1
sin θ . − cos θ
90o
Im ersten Fall ist T =
cos θ sin θ
und im zweiten Fall ist T =
cos θ sin θ
!
= M (Rθ ) ∈ O(2);
!
= M (Sθ/2 ) ∈ O(2).
− sin θ cos θ
sin θ − cos θ
−J(T e1 )
2 14.8 Definition. Eine affine Abbildung F : R −→ R , F (x) = Ax + b mit A ∈ O(2) und b ∈ R2 , heißt euklidische Bewegung der Ebene. Wir definieren 2
2
E(2) := {euklidische Bewegungen von R2 }. Ist sogar A ∈ SO(2), dann heißt F orientierungserhaltende euklidische Bewegung von R2 . Die Menge all solcher nennen wir E+ (2) := {orientierungserhaltende euklidischen Bewegungen von R2 }.
87 14.9 Definition. Sei X eine Menge und φ : X −→ X eine Abbildung. Ein Fixpunkt von φ ist ein Punkt p ∈ X mit φ(p) = p. 14.10 Lemma. Sind v, w ∈ R2 − {0}, dann gilt hv, wi = 0 =⇒ v, w sind linear unabh¨angig. Beweis: Seien v, w ∈ R2 −{0} mit hv, wi = 0 und seien α, β ∈ R mit αv +βw = 0. Zu zeigen: α = β = 0. Nun ist 0 = hαv + βw, αv + βwi = α2 kvk2 + 2αβhv, wi + β 2 kwk2 = α2 kvk2 + β 2 kwk2
=⇒ α = β = 0, da v, w 6= 0 nach Vorraussetzung. 14.11 Satz. Ist F ∈ E+ (2), F (x) = Ax + b mit A 6= Fixpunkt.
2 2,
dann hat F genau einen
Beweis: Setze H := F − idR2 . Offenbar ist x ∈ R2 ein Fixpunkt von F genau dann, wenn H(x) = 0. Aus F ∈ E+ (2) folgt A ∈ SO(2), d.h. es gibt ein θ ∈ R mit A = M (Rθ ). Wegen A 6= 2 muss θ 6= k · 2π, k ∈ Z sein. Es gen¨ ugt rg(A −
2)
=2
(∗)
zu zeigen. Denn dann ist die lineare Abbildung x 7→ (A − 2 ) · x bijekiv und damit nach 11.10 d) auch H = F − idR2 bijektiv. Wegen der Surjekivit¨ at von H ist H −1 (0) 6= ∅ und wegen der Injektivit¨ at gibt es nur ein einziges Element x ∈ H −1 (0). Also existiert genau ein x ∈ R2 mit H(x) = 0, d.h. F besitzt genau einen Fixpunkt. Beweis von (∗): Es ist A− Zu zeigen: vθ :=
cos θ−1 sin θ
2
=
und wθ :=
! cos θ − 1 − sin θ . sin θ cos θ − 1
− sin θ cos θ−1
sind linear unabh¨ angig.
Wegen θ 6= k · 2π ist (cos θ − 1) 6= 0 und somit vθ , wθ 6= 0. Nach dem Lemma reicht es zu zeigen, dass vθ und wθ orthogonal zueinander sind: cos θ − 1 − sin θ hvθ , wθ i = h , i sin θ cos θ − 1 = (cos θ − 1) · (− sin θ) + sin θ · (cos θ − 1) =0
2 Eine Charakterisierung der euklidischen Bewegungen ist gegeben durch folgenden 14.12 Satz. Sei F : R2 −→ R2 eine Abbildung. Dann sind ¨aquivalent: a) F ∈ E(2), d.h. F ist eine euklidische Bewegung, b) F ist abstandserhaltend, d.h. ∀x, y ∈ R2 : d(F (x), F (y)) = d(x, y).
88
Kapitel 14. Geometrie der Ebene, Teil 2
Beweis: a) =⇒ b): Sei F ∈ E(2). Es gibt ein T ∈ O(2), b ∈ R2 , so dass f¨ ur alle x ∈ R2 gilt: F (x) = T x + b. Dann gilt f¨ ur alle x, y ∈ R2 : d(F (x), F (y)) = kF (x) − F (y)k = kT x + b − (T y + b)k = kT x − T yk = kT (x − y)k = hT (x − y), T (x − y)i1/2
= hx − y, x − yi1/2
= kx − yk = d(x, y).
b) =⇒ a): Sei F abstandserhaltend. Zu zeigen: F ∈ E(2). Setze b := F (0) und φ(x) := F (x) − b. Zu zeigen: φ ist linear mit der darstellenden Matrix M (φ) ∈ O(2). Beh.1: hφ(x), φ(y)i = hx, yi ∀x, y ∈ R2 . Bew.: Seien x, y ∈ R2 . Betrachte das Dreieck (0, x, y). Durch F wird es abgebildet auf das Dreieck (b, F (x), F (y)). Da F abstandserhaltend ist, haben diese beiden Dreiecke dieselben Seitenl¨ angen. Da Translationen abstandserhaltend sind, hat das Dreick (0, φ(x), φ(y)) ebenfalls dieselben Seitenl¨ angen wie (0, x, y). Der Kosinussatz liefert, dass (0, x, y) und (0, φ(x), φ(y)) dieselben Winkel haben, inbesondere ^(x, y) = ^(φ(x), φ(y)). Damit gilt hφ(x), φ(y)i = cos ^(φ(x), φ(y)) · kφ(x)k · kφ(y)k = cos(^(x, y)) · d(φ(x), 0) · d(φ(y), 0) = cos(^(x, y)) · d(F (x), b) · d(F (y), b) = cos(^(x, y)) · d(F (x), F (0)) · d(F (y), F (0)) = cos(^(x, y)) · d(x, 0) · d(y, 0) = cos(^(x, y) · kxk · kyk = hx, yi.
Beh.2: φ ist linear. Bew.: Sei e1 , e2 die Standardbasis von R2 . Setze fi := φ(ei ), i = 1, 2. F¨ ur diese Vektoren gilt kfi k2 = hfi , fi i = hφ(ei ), φ(ei )i = hei , ei i = kei k2
und
(∗)
hf1 , f2 i = hφ(e1 ), φ(e2 )i = he1 , e2 i = 0
=⇒ f1 , f2 bilden eine Basis von R2 . Sei nun x ∈ R2 , x = gilt einerseits und andererseits
x1 x2
. Schreibe φ(x) = α1 f1 + α2 f2 mit αi ∈ R, i = 1, 2. Dann
hφ(x), fi i = hφ(x), φ(ei )i
Beh. 1
=
hx, ei i = xi
hφ(x), fi i = hα1 f1 + α2 f2 , fi i
= α1 hf1 , fi i + α2 hf2 , fi i (∗)
= αi
89 =⇒ αi = xi . Bezeichnet (f1 , f2 ) die reelle 2 × 2-Matrix mit fi in der i-ten Spalte, i = 1, 2, so gilt x1 φ(x) = x1 f1 + x2 f2 = (f1 , f2 ) · . x2 Also ist φ linear mit darstellender Matrix M (φ) = (f1 , f2 ) und Beh. 1 besagt gerade, dass M (φ) ∈ O(2). Somit ist R2 3 x 7→ F (x) = φ(x) + b ∈ R2 eine euklidische Bewegung. 2 14.13 Satz. E(2) und E+ (2) sind Untergruppen von S(R2 ). Beweis: F¨ ur T = 2 ∈ SO(2) und b = 0 ist F = id, wobei F (x) = T · x + b = + 2 · x + 0 = x =⇒ id ∈ E (2). (+) Sind F1 , F2 ∈ E (2), d.h. Fi (x) = Ti x + bi ∀x ∈ R2 mit bi ∈ R2 und Ti ∈ O(2) bzw. SO(2), dann gilt f¨ ur alle x ∈ R2 (F1 ◦ F2 )(x) = F1 (F2 (x)) = T1 · F2 (x) + b1 = T1 · (T2 · x + b2 ) + b1 =
T 1 · T2 · x + T 1 · b 2 + b 1 | {z } | {z } ∈R2
∈O(2) bzw. SO(2)
=⇒ F1 ◦ F2 ∈ E(+) (2).
(†)
Sei F ∈ E(+) (2), d.h. F (x) = T ·x+b ∀x ∈ R2 , wobei T ∈ O(2) bzw. SO(2). Wegen der Gruppeneigenschaft ist auch T −1 ∈ O(2) bzw. SO(2) und somit die Abbildung H : R2 −→ R2 definiert durch H(x) := T −1 x − T −1 b ein Element von E(+) (2). Wegen (†) ist dann (F ◦ H)(x) = T T −1 x + T (−T −1b) + b =
2
x−b+b=x
und (H ◦ F )(x) = T −1 T x + T −1 b − T −1 b =
2
x=x
=⇒ F −1 = H ∈ E(+) (2).
2
14.14 Beispiel. Auch die Drehung um einen Punkt p ∈ R2 um einen Winkel θ ist eine euklidische Bewegung.
Denn: Schreibe diese Abbildung als Verkettung; erst Verschieben um −p, dann Drehen um θ, danach (zur¨ uck) verschieben um p: x 7→ Rθ (x − p) + p.
0 θ p
14.15 Satz (Hesse’sche Normalform f¨ ur Gerade in Ebene). F¨ ur p ∈ R2 und 2 v ∈ R − {0} gilt f¨ ur die Gerade Gp,v : Gp,v = {x ∈ R2 | hx, J · vi = hp, J · vi}
mit J = M (Rπ/2 ).
90
Kapitel 14. Geometrie der Ebene, Teil 2
14.16 Bemerkung. J · v heißt Normalenvektor an Gp,v .
J ·v p v Gp,v Beweis:
zu ⊂“: Sei x ∈ Gp,v . Schreibe x = p + t · v , t ∈ R. Dann gilt ” hx, J · vi = hp + tv, J · vi = hp, J · vi + t hv, J · vi | {z } =0
= hp, J · vi.
zu ⊃“: Die Vektoren v, J · v stehen senkrecht aufeinander und sind beide 6= 0, denn ” v 6= 0 und kJ · vk
J ∈ O(2)
=
kvk 6= 0 =⇒ J · v 6= 0.
Somit bilden sie nach Lemma 14.9 eine Basis von R2 . Erf¨ ulle x die Gleichung hx, J · vi = hp, J · vi. Schreibe x − p = t · v + s · J · v mit s, t ∈ R, dann ist 0 = hx − p, J · vi = ht · v + s · J · v, J · vi = t hv, J · vi +s hJ · v, J · vi | {z } | {z } =0
=kJ·vk2 6=0
=⇒ s = 0 =⇒ x − p = t · v =⇒ x = p + t · v ∈ Gp,v .
2
14.17 Definition. Sei (a, b, c) ein nichtentartetes Dreieck in R . Die H¨ohe Ha ist diejenige Gerade durch den Punkt a, die auf b − c senkrecht steht, d.h. 2
Ha = {x ∈ R2 | hx, b − ci = ha, b − ci}
Analog definiert man die H¨ ohe Hb durch b und Hc durch c.
14.18 Satz (H¨ ohenschnittsatz). Sei (a, b, c) ein nicht entartetes Dreieck. Dann schneiden sich die drei H¨ohen in einem Punkt. c Hb
Ha
a
b Hc
91 Beweis: Ha und Hb sind nicht parallel, weil sonst die Seiten gegen¨ uber a bzw. b parallel sein m¨ ussten. Dann w¨ are das Dreieck entartet. Also haben Ha und Hb einen Schnittpunkt h ∈ Ha ∩ Hb . Wir zeigen: h ∈ Hc . h ∈ Ha =⇒ hh, b − ci = ha, b − ci h ∈ Hb =⇒ hh, a − ci = hb, a − ci. Daraus folgt hh, a − bi = hh, a − c + c − bi = hh, a − ci − hh, b − ci = hb, a − ci − ha, b − ci = hb, ai − hb, ci − ha, bi + ha, ci = h−b + a, ci = hc, a − bi
=⇒ h ∈ Hc .
2
Zur Vorbereitung zu Kreisen dient das folgende 14.19 Lemma (L¨ osungen quadratischer Gleichungen). Seien a, b, c ∈ R , a 6= 0. Ist b2 − 4ac ≥ 0, so ist p p 1 1 {x ∈ R | ax2 + bx + c = 0} = (−b + b2 − 4ac), (−b − b2 − 4ac) . 2a 2a
Ist b2 − 4ac < 0, so ist
{x ∈ R | ax2 + bx + c = 0} = ∅. Beweis:
a) Sei b2 − 4ac ≥ 0. Setze x1,2 :=
Man berechnet
p 1 (−b ± b2 − 4ac) 2a
a(x − x1 )(x − x2 ) = ax2 − a(x1 + x2 )x + ax1 x2 = ax2 + bx + c.
Damit ist ax2 + bx + c = 0 ⇐⇒ a(x − x1 )(x − x2 ) = 0 ⇐⇒ x − x1 = 0 oder x − x2 = 0 ⇐⇒ x = x1 oder x = x2 .
b) Sei nun b2 − 4ac < 0. Setze x1,2 :=
p 1 −b ± i 4ac − b2 ∈ C − R. 2a
Wie im Fall a) berechnet man f¨ ur alle x ∈ C: F¨ ur x ∈ C gilt:
a(x − x1 )(x − x2 ) = ax2 + bx + c. ax2 + bx + c = 0 ⇐⇒ x = x1 oder x = x2
x1 , x 2 ∈ / R =⇒ {x ∈ R | ax2 + bx + c = 0} = ∅.
2
92
Kapitel 14. Geometrie der Ebene, Teil 2
14.20 Bemerkung. Falls b2 − √ 4ac = 0, so fallen die beiden L¨ osungen zusammen, √ 1 b 2 − 4ac) = 1 (−b − (−b + . b b2 − 4ac) = − 2a 2a 2a 14.21 Korollar (Einfache Version des Wurzelsatzes von Viet` a). Seien a, b, c ∈ R, a 6= 0, b2 −4ac ≥ 0. Sind x1 , x2 die beiden L¨osungen von ax2 +bx+c = 0, so ist x1 + x2 = −b/a und x1 x2 = c/a. 14.22 Definition. Ist m ∈ R2 und r > 0, so heißt Kr (m) := {x ∈ R2 | d(x, m) = r} Kreis mit Mittelpunkt m und Radius r. 14.23 Bemerkung. Kr (m) = {x ∈ R2 | kx − mk2 = r2 } = {x ∈ R2 | hx − m, x − mi = r2 } Sei nun Gp,v eine Gerade. Wir untersuchen im Folgenden die verschiedenen M¨ oglichkeiten von Gp,v den Kreis Kr (m) zu schneiden, fragen also: Was ist Gp,v ∩ Kr (m) ? Zu p + tv ∈ Gp,v betrachte hx − m, x − mi = hp + tv − m, p + tv − mi = kvk2 t2 + 2hp − m, vit + kp − mk2
x ∈ Kr (m) ⇐⇒ kvk2 t2 + 2hp − m, vi t + kp − mk2 − r2 = 0. |{z} | {z } {z } | =:a
(?)
=:c
=:b
Die obige Frage zu beantworten ist gleichbedeutend damit, die quadratische Gleichung (?) in der Unbekannten t zu untersuchen. 1.Fall: keine L¨ osung ⇐⇒ b2 − 4ac < 0 ⇐⇒ 4hp − m, vi2 − 4kvk2 (kp − mk2 − r2 ) < 0 ⇐⇒ hp − m,
v 2 i < kp − mk2 − r2 kvk
Insbesondere hat Gp,v keine Punkte im Inneren des Kreises, d.h. keine Punkte q mit d(m, q) < r.
p Gp,v
v m r Kr (m)
2.Fall: genau eine L¨ osung ⇐⇒ hp − m,
v 2 i = kp − mk2 − r2 kvk
W¨ ahlen wir p so, dass es der Schnittpunkt mit dem Kreis ist, dann ist die Bedingung ¨ aquivalent zu
p
v
Gp,v
p−m
m
v 2 hp−m, i = 0, d.h. p−m ⊥ v. kvk In diesem Fall nennt man Gp,v eine Tangente von Kr (m).
Kr (m)
93 3.Fall: Zwei verschiedene L¨ osungen ⇐⇒ b2 − 4ac > 0 ⇐⇒ hp − m,
Ist p einer der beiden Schnittpunkte, so besagt die Bedingung
v 2 i > kp − mk2 − r2 kvk v
p Gp,v
m
v hp−m, i 6= 0, also p−m 6⊥ v. kvk
Kr (m)
In diesem Fall nennt man Gp,v eine Sekante von Kr (m). 14.24 Satz (Zwei-Sehnen-Satz). Sei K = Kr (m) ein Kreis und p ein Punkt im Inneren von K, d.h. d(m, p) < r. Dann ist f¨ ur alle Sekanten g von K durch p das Produkt der Sehnenabhschnitte ζ1 · ζ2 dasselbe.
(
ζ1
p )
m ζ2
Kr (m)
Beweis: Schreibe die Sekante als Gp,v mit kvk = 1. Dann ist ζi = |ti |, wobei t1 und t2 die beiden L¨ osungen der Gleichung (?) sind, denn ζi = d(p, p + ti v) = kti vk = |ti |kvk = |ti | . ζ1 · ζ2 = |t1 · t2 | kp − mk2 − r2 , = kvk = r2 − kp − mk2 ,
Viet` a & Werte f¨ ur a, c in (?) da p innerer Punkt, somit kp − mk2 < r
=⇒ ζ1 · ζ2 ist unabh¨ angig von v, was die Behauptung zeigt.
2
94
Kapitel 14. Geometrie der Ebene, Teil 2
14.25 Satz (Tangenten-Sehnen-Satz). Sei K = Kr (m) ein Kreis und ¨ p ein Punkt im Außeren von K, d.h. d(m, p) > r. Dann ist I 2 = ζ1 · ζ2 . p
I ζ2 ζ1
m K
Beweis:
Wie f¨ ur Zwei-Sehnen-Satz.
2
Kapitel 15
Codierungstheorie ¨ Ziel. Wir wollen Fehler, die bei der Ubermittlung von Daten auftreten k¨ onnen, erkennen und korrigieren. Ansatz. Wir codieren Daten im so genannten Bin¨arcode, d.h. als Folge von Nullen und Einsen. Betrachte K = F2 und V = (F2 )n . 15.1 Definition. Die Abbildung dH : V × V −→ N definiert durch dH (v, w) := #{j ∈ {1, 2, . . . , n} | vj 6= wj } heißt Hemming-Abstand. (Das ist also die Anzahl der Komponenten, die bei einem Vektor 0, beim anderen aber 1 sind.) 15.2 Lemma. Der Hemming-Abstand hat f¨ ur alle u, v, w ∈ V die Eigenschaften: a) dH (v, w) ≥ 0 und dH (v, w) = 0 ⇐⇒ v = w b) dH (v, w) = dH (w, v) c) dH (u, w) ≤ dH (u, v) + dH (v, w) d) dH (v, w) = dH (v + u, w + u) Beweis: 1), 2), 4) sind trivial und 3) folgt aus der Beobachtung: Ist uj 6= wj , so ist wegen #F2 = 2 entweder uj 6= vj oder wj 6= vj .
2
15.3 Definition. Sei λ ∈ N. Eine Teilmenge C ⊂ (F2 )n heißt λ-fehlerkorrigierender Code, falls f¨ ur u, v ∈ C, u 6= v stets gilt: dH (u, v) ≥ 2λ + 1.
15.4 Beispiel. n = 3: 1 0 C = 0 , 1 0 1
0 1 dH 0 , 1 = 3 0 1
Also ist C ein 1-fehlerkorrigierender Code.
96
Kapitel 15. Codierungstheorie
Die Elemente von (F2 )n stellen wir uns als W¨ orter vor, die als Folge von 0 und 1 bin¨ ar codiert wurden. Der Code C ist die Menge der zugelassenen W¨ orter, die u bertragen werden sollen. Ist der Code nun λ-fehlerkorrigierend f¨ u r m¨ o glichst großes ¨ ¨ λ, so k¨ onnen kleine Fehler bei der Ubertragung erkannt und korrigiert werden. 15.5 Lemma. Sei C ⊂ V ein λ-fehlerkorrigierender Code. Dann gibt es zu jedem v ∈ V h¨ochstens ein w ∈ C mit dH (v, w) ≤ λ. Beweis:
Seien w1 , w2 ∈ C mit dH (v, wi ) ≤ λ. Dann gilt dH (w1 , w2 ) ≤ dH (w1 , v) + dH (v, w2 ) ≤ 2λ.
C ist λ-fehlerkorrigierend =⇒ w1 = w2 .
2
Idee. W¨ ahle λ-fehlerkorrigierenden Code C. Lasse nur Elemente aus C als ¨ Sendedaten‘ zu. Wenn bei der Ubermittlung h¨ ochstens λ-viele Fehler auftreten, ’ so k¨ onnen wir die gesendete Nachricht (ein Element aus C) aus der empfangenen Nachricht (ein Element aus V ) rekonstruieren. Probleme. ~ Der Code C muss abgespeichert werden. (Große Codes brauchen viel Speicherkapazit¨ at!) ~ Decodierung (d.h. ein w ∈ C wie im Lemma oben zu finden) erfordert viele Vergleiche der empfangenen Nachricht mit den Elementen aus C. 15.6 Definition. Ein λ-fehlerkorrigierender Code C ⊂ (F2 )n heißt linear, falls C zus¨ atzlich ein Untervektorraum ist. Um einen linearen Code festzulegen, reicht es, eine Basis anzugeben. Wenn dim C = k, dann hat jede Basis die M¨ achtigkeit k; dagegen hat C selbst die M¨ achtigkeit 2k , was viel gr¨ oßer ist. Begr¨ undung: Ist (b1 , . . . , bk ) eine Basis von C, dann hat jedes Element aus C die Form α1 · b1 + · · · + αk · bk , αi ∈ F2 . Nun ist aber #F2 = 2, d.h. man hat f¨ ur jedes αi genau zwei Auswahlm¨ oglichkeiten und damit insgesamt 2k m¨ ogliche Linearkombinationen. Wir brauchen noch eine effektive Decodierung. Sei von nun an C ⊂ (F2 )n stets ein linearer λ-fehlerkorrigierender Code, dim C = k. W¨ ahle eine lineare surjektive Abbildung φ : (F2 )n −→ (F2 )n−k mit ker(φ) = C. Ein solches φ existiert, denn: Erg¨ anze eine geordnete Basis (b1 , . . . , bk ) von C zu einer geordneten Basis (b1 , . . . , bk , bk+1 , . . . , bn ) von (F2 )n . Dann leistet die Abbildung αk+1 n X . . φ( αj · bj ) := . j=1 αn
das Gew¨ unschte. Die darstellende Matrix M (φ) ∈ M ((n − k) × n, F2 ) heißt Kontrollmatrix des Codes. 15.7 Beispiel. Sei n = 7. Dann ist 1 0 0 1 1 0 1 A = 0 1 0 1 0 1 1 0 0 1 0 1 1 1
die Kontrollmatrix eines vierdimensionalen 1-fehlerkorrigierenden Codes.
97 Nenne y ∈ (F2 )n−k zul¨assig, falls ein x ∈ φ−1 (y) existiert mit dH (x, 0) ≤ λ. Es kann h¨ ochstens ein solches x geben, denn sind x, x0 ∈ φ−1 (y) mit dH (x, 0) ≤ λ, dH (x0 , 0) ≤ λ, dann ist x − x0 ∈ ker(φ) = C und dH (x−x0 , 0) = dH (x, x0 ) ≤ dH (x, 0)+dH (0, x0 ) ≤ 2λ. Da C aber λ-fehlerkorrigierend ist, folgt x − x0 = 0, d.h. x = x0 . Der Empf¨ anger speichert in einer Liste alle zul¨ assigen y ∈ (F2 )n−k zusammen mit den zugeh¨ origen x ∈ φ−1 (y), f¨ ur die dH (x, 0) ≤ λ gilt. Eine empfangene Nachricht v ∈ (F2 )n , die m¨ oglicherweise verf¨ alscht worden ist, kann nun wie folgt decodiert werden.
Decodierung. Empfangene Nachricht v ∈ (F2 )n ? Berechne y = φ(v) ?
@ # Ist y@ nein Fehlerkorrektur zul¨ assig?@ nicht m¨ oglich @ " @ @ ja ?
!
Setze w := v − x ( x ∈ φ−1 (y) mit dH (x, 0) ≤ λ ) ? w ist gesendete Nachricht Es ist φ(w) = φ(v) − φ(x) = y − y = 0 =⇒ w ∈ ker(φ) = C. Außerdem ist dH (w, v) = dH (x, 0) ≤ λ. Nach dem Lemma ist w eindeutig und stellt somit die rekonstruierte gesendete Nachricht dar.
Interpretation. Man kann x = v − w als den Fehlervektor‘ ansehen, um den die ’ empfangene Nachricht v von der gesendeten w abweicht. dH (x, 0) stellt die Anzahl der Abweichungen in den einzelnen Komponenten von v und w dar, also die Anzahl ¨ der bei der Ubertragung entstandenen Fehler. Ist diese Zahl kleiner als λ, so kann man w aus v zur¨ uckgewinnen, was den Namen λ-fehlerkorrigierenden Code erkl¨ art. Die Kontrollabbildung φ projiziert‘ den fehlerhaften Anteil x von v ∈ (F2 )n auf ’ y ∈ (F2 )n−k . Ist dieser fehlerhafte Anteil zu groß, so ist seine Projektion‘ kein ’ zul¨ assiger Wert. (Das folgende Bild ist schematischer Natur und zur Veranschaulichung gedacht; in Wirklichkeit ist (F2 )n ein diskreter‘ und kein kontinuierlicher‘ ’ ’ Raum.)
98
Kapitel 15. Codierungstheorie
Schematisches Bild:
C = ker(φ) x w
φ
v spanF2 {vk+1 , . . . , vn } y
(F2 )n−k
Kapitel 16
Matrixdarstellung linearer Abbildungen Erinnerung. Sei φ : K n → K m linear. Dann ist die darstellende Matrix M (φ) ∈ M (m × n, K) charakterisiert durch φ(x) = M (φ) · x . Frage. Wie k¨ onnen wir lineare Abbildungen φ : V → W f¨ ur beliebige (endlichdimensionale) Vektorr¨ aume durch Matrizen beschreiben? 16.1 Lemma. Ist V ein n-dimensionaler K-Vektorraum mit geordneter Basis B = (b1 , . . . , bn ), so ist die Abbildung x1 . ΨB : K n → V mit ΨB (x) = xi bi , wobei x = .. i=1 xn
n X
ein Isomorphismus. Beweis:
a) ΨB ist linear: F¨ ur alle α, β ∈ K, x, y ∈ K n gilt
αx1 + βy1 .. ΨB (αx + βy) = ΨB . αxn + βyn =
n X
(αxi + βyi )bi
i=1
=α·
n X i=1
xi b i + β ·
n X
y i bi
i=1
= αΨB (x) + βΨB (y) .
b) ΨB ist surjektiv, denn B ist Erzeugendensystem von V , also l¨ asst sich jedes n P Element von V in der Form xi bi schreiben. i=1
100
Kapitel 16. Matrixdarstellung linearer Abbildungen
c) ΨB ist injektiv: Ist x ∈ ker(ΨB ), so ist 0 = ΨB (x) =
n X
xi b i ,
i=1
und wegen der linearen Unabh¨ angigkeit von B ist x1 = · · · = xn = 0, d.h. x = 0
⇒ ker(ΨB ) ⊂ {0} ⇒ ΨB ist injektiv. 2 16.2 Korollar. Sei V ein K-Vektorraum. Dann sind ¨aquivalent: a) dimK V = n b) V ist isomorph zu K n .
2
Sei V ein n-dimensionaler K-Vektorraum mit geordneter Basis A = (a1 , . . . , an ) und W ein m-dimensionaler K-Vektorraum mit geordneter Basis B = (b1 , . . . , bn ). Sei φ : V −→ W linear. φ
V ΨA ∼ = Kn
W ∼ = ΨB
Ψ−1 B
◦ φ ◦ ΨA
Km
16.3 Definition. MBA (φ) := M (Ψ−1 B ◦ φ ◦ ΨA ) ∈ M (m × n, K) heißt darstellende Matrix von φ bez¨ uglich der Basen A und B . 16.4 Bemerkung. Wir wollen age der darstellenden Matrix nun die Eintr¨ c11 · · · c1n . .. . MBA (φ) = . berechnen. Betrachten wir dazu das Bild des Basis . cm1 · · · cmn vektors aj unter der Abbildung φ (ej sei dabei der j-te Standardbasisvektor von K n ): φ(aj ) = φ(ΨA (ej )) = ΨB ◦ (Ψ−1 B ◦ φ ◦ ΨA )(ej )
A = ΨB (M (Ψ−1 B ◦ φ ◦ ΨA ) · ej ) = ΨB (MB (φ) · ej ) c1j m . X . = cij bi . = ΨB . i=1 cmj
Also k¨ onnen wir die Eintr¨ age cij wie folgt berechnen: Dr¨ ucke die φ(aj ) als Linearkombination bez¨ uglich der geordneten Basis (b1 , . . . , bm ) aus. Die dabei auftretenden Koeffizienten sind die Eintr¨ age von MBA (φ). 16.5 Beispiele. a) V = Rk [x] , K = R W = Rk−1 [x] φ = diff : V −→ W, φ(p) = p0 sei die Differentiationsabbildung. W¨ ahle A = (1, x, x2 , . . . , xk ) als geordnete Basis von
V
und
101 B = (1, x, x2 , . . . , xk−1 ) als geordnete Basis von W . F¨ ur alle j = 0, . . . , k erh¨ alt man φ(xj ) = (xj )0 = j · xj−1 , also 0 1 0 ··· 0 0 0 0 2 . . . 0 . . . .. .. .. . . . MBA (diff) = . . . . . . . .. . k − 1 0 0 0 0 0 0 ··· 0 k
b) V = K n , W = K m Sei A die Standardbasis von K n und B die Standardbasis von K m . Dann ist ΨA = idK n und ΨB = idK m ⇒ MBA (φ) = M (Ψ−1 B ◦ φ ◦ ΨA ) = M (φ). M (φ) ist also die darstellende Matrix von φ bez¨ uglich der Standardbasen. 16.6 Proposition. Sei V ein n-dimensionaler K-Vektorraum mit geordneter Basis A, W ein m-dimensionaler K-Vektorraum mit geordneter Basis B und Z ein kdimensionaler K-Vektorraum mit geordneter Basis C. Dann gilt f¨ ur alle linearen Abbildungen φ : V −→ W und ψ : W −→ Z: MCA (ψ ◦ φ) = MCB (ψ) · MBA (φ).
Beweis: MCA (ψ ◦ φ) = M (Ψ−1 C ◦ ψ ◦ φ ◦ ΨA )
−1 = M (Ψ−1 C ◦ ψ ◦ ΨB ) ◦ (ΨB ◦ φ ◦ ΨA )
= MCB (ψ) · MBA (φ)
2 Frage. Wie ver¨ andert sich die darstellende Matrix einer linearen Abbildung bei ¨ Anderung der zu Grunde gelegten Basis? 16.7 Definition. Seien A und A0 zwei geordnete Basen von V . Dann heißt TAA0 := M (Ψ−1 A0 ◦ ΨA ) ∈ GL(n, K) Transformationsmatrix des Basiswechsels von A nach A0 . Kn ΨA Ψ−1 A0
◦ ΨA
∼ =
∼ =
V
∼ = Ψ A0
Kn
A 16.8 Bemerkung. TAA0 = M (Ψ−1 A0 ◦ idV ◦ ΨA ) = MA0 (idV ).
Insbesondere k¨ onnen wir die Eintr¨ age von TAA0 berechnen, indem wir aj =
schreiben. Dann ist TAA0
c11 . = .. cn1
··· ···
c1n .. . . cnn
n P
i=1
cij a0i
102
Kapitel 16. Matrixdarstellung linearer Abbildungen 0
Ferner ist (TAA0 )−1 = TAA , denn 0 0 0 0 TAA0 · TAA = MAA0 (idV ) · MAA (idV ) = MAA0 (idV ◦ idV ) = MAA0 (idV ) = 0 Analog ist TAA · TAA0 = n .
n.
16.9 Proposition (Transformationsformel). Sei V ein endlichdimensionaler K-Vektorraum mit geordneten Basen A und A0 , sei W ein endlichdimensionaler K-Vektorraum mit geordneten Basen B und B 0 und sei φ : V −→ W linear. Dann gilt: −1 0 MBA0 (φ) = TBB0 MBA (φ) TAA0 . Beweis:
0
0
MBA0 (φ) = MBA0 (idW ◦ φ ◦ idV ) 16.6
0
= MBB0 (idW ) · MBA (φ) · MAA (idV )
= TBB0 · MBA (φ) · TAA
0
2 16.10 Bemerkung. Speziell f¨ ur Endomorphismen φ : V −→ V und geordnete Basen B und B 0 von V ergibt sich f¨ ur die darstellende Matrix MBB (φ) =: MB (φ) : MB 0 (φ) = T · MB (φ) · T −1 , wobei T := TBB0 . a) Sei V = R2 , B = (e1 , e2 ), φ = Rθ . Dann ist ! cos θ − sin θ . MB (φ) = M (φ) = sin θ cos θ
16.11 Beispiele.
!! ! 0 2 als weitere geordnete Basis von R2 . Berechne , 1 0
0
W¨ ahle nun B = T = TBB0 :
! 1 e1 = 21 · b1 + 0 · b2 0 2 =⇒ T = 0 1 e2 = 0 · b 1 + 1 · b 2 ! 2 0 −1 =⇒ T = 0 1 ! ! ! 1 0 cos θ − sin θ 2 0 2 =⇒ MB 0 (Rθ ) = · · 0 1 sin θ cos θ 0 1 ! ! 1 cos θ − 21 sin θ 2 0 · = 2 sin θ cos θ 0 1 ! cos θ − 12 sin θ = 2 sin θ cos θ
b) Sei φ : R −→ R die Spiegelung an der Achse, die durch ! ! 1 −1 wird. Setze b1 := , b2 := . 1 1 2
2
! 1 aufgespannt 1
103
b2 0
! 1 = b1 1
B := (b1 , b2 ) ist geordnete Basis von R2 . Dann ist φ(b1 ) = b1 , φ(b2 ) = −b2 , also ! 1 0 MB (φ) = . 0 −1 Wir wollen nun die darstellende Matrix von φ bez¨ uglich der Standardbasis A = (e1 , e2 ) berechnen. Dazu m¨ ussen wir b1 und b2 als Linearkombination von e1 und e2 ausdr¨ ucken, was gl¨ ucklicherweise nicht u ¨ber die Maßen schwierig ist: b1 = 1 · e1 + 1 · e2 , !b2 = −1 · e1 + 1 · e2 1 −1 =⇒ TAB = . 1 1 −1 Wir brauchen noch TAB und versuchen dies nun durch gezieltes Raten zu ermitteln. Wir konstruieren also eine Matrix mit lauter Einsen, in der die Minusse so verteilt sind, dass dort Nullen entstehen, wo wir sie brauchen. ! ! ! ! ! 1 −1 1 1 2 0 1 1 1 −1 · = = · 1 1 −1 1 0 2 −1 1 1 1 B −1
=⇒ TA
=
1 2
1 1 −1 1
!
−1 M (φ) = MA (φ) = TAB · MB (φ) · TAB ! ! 1 −1 1 0 1 = · · · 2 1 1 0 −1 ! ! 1 1 1 1 1 · = 2 1 −1 −1 1 ! 1 0 2 = 2 2 0 ! 0 1 = 1 0
1 1 −1 1
!
16.12 Definition. Zwei Matrizen X, Y ∈ M (m × n, K) heißen ¨aquivalent, falls es Matrizen S ∈ GL(m, K) und T ∈ GL(n, K) gibt, so dass Y = S · X · T −1 . Zwei Matrizen X, Y ∈ M (m × m, K) heißen ¨ahnlich, falls es eine Matrix T ∈ GL(m, K) gibt, so dass Y = T · X · T −1 .
104
Kapitel 16. Matrixdarstellung linearer Abbildungen
16.13 Bemerkung. ¨ ahnlich ⇒ ¨ aquivalent (klar, da ist einfach S = T ), aber nicht umgekehrt! 16.14 Beispiel. X = m , Y ∈ GL(m, K), Y 6= m . X und Y sind a ¨quivalent: Setze S := Y, T := m . Dann gilt S · X · T −1 = Y · m · m = Y. X und Y sind nicht ¨ ahnlich: F¨ ur jedes T ∈ GL(m, K) ist T · X · T −1 = T · m · T −1 = T · T −1 = m 6= Y. 16.15 Bemerkung. Zwei Matrizen sind ¨ aquivalent genau dann, wenn sie dieselbe lineare Abbildung bez¨ uglich m¨ oglicherweise verschiedener Basen beschreiben. Also nochmal u ¨bersetzt in die Sprache der Mathematik: X, Y a ¨quivalent ⇒∃ φ ∈ Hom(K n , K m ) ∃ Basen A, A0 von K n , B, B 0 von K m , 0
so dass X = MBA (φ) und Y = MBA0 (φ).
16.16 Bemerkung. Zwei Matrizen X, Y ∈ M (m×m, K) sind ¨ ahnlich genau dann, wenn ∃ φ ∈ Hom(K m , K m ) ∃ Basen B, B 0 von K m , so dass X = MBB (φ) und Y = 0 MBB0 (φ). 16.17 Bemerkung.
a) Jede Matrix ist zu sich selbst ¨ aquivalent (S = T =
n ).
b) Sind X und Y ¨ aquivalent, so sind auch Y und X ¨ aquivalent. (Y = SXT −1 f¨ ur invertierbare S, T −1 ⇒ X = S −1 · Y · T −1 )
c) Sind X und Y a ¨quivalent sowie Y und Z a ¨quivalent, so sind auch X und Z a quivalent. ¨ (Y = S1 XT1−1 , Z = S2 Y T2−1 −1 ) ⇒ Z = S2 S1 XT1−1 T2−1 = (S2 S1 ) ·X · (T2 T1 ) | {z } | {z } S
T
¨ ¨ Also definiert die Aquivalenz von Matrizen eine Aquivalenzrelation. Analog definiert ¨ ¨ die Ahnlichkeit von Matrizen eine Aquivalenzrelation. 16.18 Satz. Seien V, W endlichdimensionale K-Vektorr¨aume. Sei φ : V −→ W linear. Dann gibt es geordnete Basen A von V und B von W , so dass z
A MB (φ) =
r
1
}| { 0 ··· ··· .. .. . . .. .. . . 1 .. . 0 .. .
0 .. . .. . .. . 0 ···
···
···
···
..
.
..
.
0
0 .. . .. . .. .
= 0 0
r
0
0 0
!
.
Dabei ist r = rg(φ). Beweis: a) W¨ ahle eine geordnete Basis (b1 , . . . , br ) von im(φ). Erg¨ anze diese zu einer geordneten Basis B = (b1 , . . . , br , br+1 , . . . , bm ) von W . W¨ ahle nun aus jedem φ−1 (bj ) ein aj (existiert, braucht aber nicht eindeutig zu sein, denn es ist ja nicht verlangt, dass φ injektiv sein soll).
105 Sei dim(V ) =: n. Nach der Dimensionsformel gilt nun dim ker(φ) = dim(V ) − dim im(φ) = n − r . W¨ ahle nun schließlich eine Basis ar+1 , . . . , an von ker(φ) (das sind genau n − r linear unabh¨ angige Vektoren). b) Behauptung: A = (a1 , . . . , ar , ar+1 , . . . , an ) ist eine geordnete Basis von V . Beweis: Es gen¨ ugt zu zeigen, dass A linear unabh¨ angig ist: Sei λ1 a1 + · · · + λn an = 0 f¨ ur λj ∈ K. Zu zeigen: λj = 0 ∀j. n n r P P P 0 = φ(0) = φ( λj a j ) = λj φ(aj ) = λj b j j=1
j=1
j=1
Das letzte Gleichheitszeichen gilt wegen ar+1 , . . . , an ∈ ker(φ). Da b1 , . . . , br linear unabh¨ angig sind, ist λ1 = · · · = λr = 0. ⇒ λr+1 ar+1 + · · · + λn an = 0 ⇒ λr+1 = · · · = λn = 0, da ar+1 , . . . , an eine Basis von ker(φ) ist. Somit ist A eine Basis von V .
c) f¨ ur j ≤ r f¨ ur j > r
φ(aj ) = bj φ(aj ) = 0
1 0 ··· 0 1 ... . .. . . . 0 .. .. . . . . . =⇒ MBA (φ) = . . .. .. . . .. .. . . . . . . 0 0 ··· | {z
··· ..
.
0 .. . .. .
..
.
0
..
.
1
···
r
0 .. . 0
}|
0 ··· .. . .. . .. . .. . .. . .. . 0 ···
···
{z
···
n−r
0 .. . .. . .. . .. . .. . .. . 0
}
2
16.19 Folgerung. Jede Matrix X vom Rang r ist ¨aquivalent zur Matrix ! 0 r . 0 0 16.20 Bemerkung. Es ist nicht richtig, dass jede m × m-Matrix ¨ahnlich ist zu einer Matrix dieser Form! 16.21 Beispiel. Ist X ∈ GL(m, K), X 6= obwohl rg(X) = m.
m
, dann ist X nicht ¨ ahnlich zu
m
,
Ein Endomorphismus φ ∈ Hom(V, ! V ) kann im Allgemeinen nur dann durch ei0 r ne Matrix der Form dargestellt werden, wenn man zwei verschiedene 0 0
106
Kapitel 16. Matrixdarstellung linearer Abbildungen
Basen A, B zu Grunde legt, d.h.
MAA (φ)
r
=
0
0 0
!
geht nicht mit allen Endo-
morphismen φ. Wir definieren tempor¨ ar nun zwei Konzepte von Rang einer Matrix, von denen wir allerdings sp¨ ater sehen werden, dass sie u ¨berstimmen. 16.22 Definition. Sei X ∈ M (m × n, K). rg(X) =maximale Anzahl linear unabh¨ angiger Spalten heißt Spaltenrang von X. rg(X) e =maximale Anzahl linear unabh¨ angiger Zeilen heißt Zeilenrang von X.
c11 · · · c1n . .. t . 16.23 Definition. Ist X = . ∈ M (m × n, K), so heißt X = . cm1 · · · cmn c11 · · · cm1 . .. . . ∈ M (n × m, K) Transponierte von X. . c1n · · · cmn
16.24 Beispiel.
t 1 4 2 5 = 3 6
1 2 3 4 5 6
!
16.25 Satz. Seien X, Y ∈ M (m×n, K), Z ∈ M (l ×m, K), S ∈ GL(m, K), α ∈ K. Dann gilt: i) (X + Y )t = X t + Y t ii) (α · X)t = α · X t iii) (X t )t = X iv) (Z · Y )t = Y t · Z t v) S −1
t
= St
−1
e vi) rg X t = rg(X) t rg e X = rg(X)
Beweis: i), ii), iii), vi) klar iv) nachrechnen t t iv ) v) S −1 · S t = S · S −1 = ( m )t = m t Analog rechnet man nach: S t · S −1 = m . −1 t ⇒ St = S −1
2
16.26 Lemma. Seien V, W endlichdimensionale K-Vektorr¨aume, sei φ : V −→ W linear. Sei A eine geordnete Basis von V und B eine geordnete Basis von W . Dann gilt: rg MBA (φ) = rg(φ).
107 Beweis: Seien ΨA : K n −→ V und ΨB : K m −→ W die Isomorphismen, die durch die Basen A bzw. B gegeben sind. Dann gilt: rg MBA (φ) = rg M (Ψ−1 B ◦ φ ◦ ΨA ) = rg(Ψ−1 B ◦ φ ◦ ΨA )
= dim im Ψ−1 B ◦ (φ ◦ ΨA )
= dim im(φ ◦ ΨA ), da ΨB ein Isomorphismus ist = dim im(φ) (aus demselben Grunde) = rg(φ). 2
16.27 Lemma. Sind X, Y ∈ M (m × n, K) ¨aquivalent, so ist rg(X) = rg(Y ) und rg(X) e = rg(Y e ).
Beweis:
a) X und Y sind a ¨quivalent ⇒ Es gibt eine lineare Abbildung φ : K n −→ K m und Basen A, A0 von K n sowie Basen B, B 0 von K m , so dass 0
X = MBA (φ) und Y = MBA0 (φ). Somit ist nach dem vorangegangenen Lemma rg(X) = rg(φ) = rg(Y ). b) X und Y seien a ¨quivalent, also gibt es Matrizen S ∈ GL(m, K) und T ∈ GL(n, K), so dass Y = SXT −1 . Daraus erh¨ alt man durch Transposition: t Y t = SXT −1 t = T −1 · X t · S t −1 = Tt · X t · St .
Damit sind X t und Y t ebenfalls ¨ aquivalent und man erh¨ alt: a) rg(X) e = rg X t = rg Y t = rg(Y e ).
2
16.28 Satz. Sei X ∈ M (m × n, K). Dann gilt: Ist X = Beweis:
MBA (φ),
so gilt:
rg(X) = rg(X). e rg(X) e = rg(φ).
Nur rg(X) = rg(X) e ist noch zu zeigen: r
X ist ¨ aquivalent zu einer Matrix der Form
=⇒rg(X) = rg rg(X) e = rg e
0
r
0 r
0
0 0 0 0
=⇒rg(X) = r = rg(X). e
0 0 ! !
!
.
=r =r
2
108
Kapitel 16. Matrixdarstellung linearer Abbildungen
16.29 Beispiel. 1 2 3 4 rg 2 4 6 8
!
! 1 2 3 4 = rg e =1 2 4 6 8
Kapitel 17
Geometrie im Raum 17.1 Definition. Sei V ein K-Vektorraum. Eine Gerade G in V ist ein eindimensionaler affiner Unterraum von V , d.h. G ist von der Form G = p + U , wobei p ∈ V und U ⊂ V ein eindimensionaler Untervektorraum ist. G U
p 0 Ist v ∈ U − {0}, dann bildet {v} eine Basis von U , d.h. U = {s · v | s ∈ K} und somit ist G = {p + s · v | s ∈ K}. 17.2 Definition. Eine Ebene E in V ist ein zweidimensionaler affiner Unterraum von V , d.h. E ist von der Form E = p + U , wobei p ∈ V und U ⊂ V ein zweidimensionaler Untervektorraum ist. E
p U
0
17.3 Definition. Sei V ein n-dimensionaler K-Vektorraum. Eine Hyperebene H in V ist ein (n − 1)-dimensionaler affiner Unterraum von V . 17.4 Beispiel. n = 2: Eine Hyperebene (z.B. von V = R2 ) ist eine Gerade. n = 3: Eine Hyperebene (z.B. von V = R3 ) ist eine Ebene. 17.5 Definition. Zwei affine Unterr¨ aume A1 = p1 + U1 und A2 = p2 + U2 heißen parallel , falls U1 ⊂ U2 oder U2 ⊂ U1 . 17.6 Beispiele.
a) Parallele Geraden:
110
Kapitel 17. Geometrie im Raum
G2 p2
G1
U1 = U 2
p1
0
b) Parallele Ebenen: p2
E2 p1
E1
0
U1 = U 2
c) Gerade und Ebene: G
p2
E
p1 U1
0
U2
17.7 Bemerkung. Schneiden sich zwei parallele affine Unterr¨ aume, so ist der eine im anderen enthalten, denn ist p ∈ A1 ∩ A2 , so ist A1 = p + U1 und A2 = p + U2 . Aus U1 ⊂ U2 folgt A1 ⊂ A2 , aus U2 ⊂ U1 folgt A2 ⊂ A1 . Einer dieser F¨ alle liegt vor, da A1 , A2 nach Voraussetzung parallel sind. Insbesondere gilt: Haben A1 und A2 dieselbe Dimension, sind parallel und schneiden sich, so ist A1 = A2 . 17.8 Satz (Hesse’sche Normalform f¨ ur Hyperebenen). Eine Teilmenge A ⊂ K n ist eine Hyperebene genau dann, wenn es ein ν ∈ K n , ν 6= 0, und ein c ∈ K gibt, so dass A = {x ∈ K n | ν t · x = c}. 17.9 Bemerkung. Im Fall K = R, n = 2 mit ν = νν12 ist t
ν · x = ν1
x 1 ν2 x2
!
= ν1 x1 + ν2 x2 = hν, xi.
Beweis: a) Sei A = {x ∈ K n | ν t · x = c}. Die Gleichung ν t · x = c ist eine lineare Gleichung, somit ist die L¨ osungsmenge A entweder leer oder ein affiner Unterraum. Ist A ein affiner Unterraum, so
111 ist die Dimension von A gegeben durch dim A = dim{x ∈ K n | ν t · x = 0} = dim ker(ν t )
= dim K n − rg(ν t ) = n − 1. Also ist in diesem Fall A eine Hyperebene. Bleibt noch zu zeigen, dass A 6= ∅. ur ν 6= 0, also gibt es eine Komponente νj 6= 0. Setze xj := νcj und xi := 0 f¨ i 6= j. Dann ist 0 . .. 0 c c t ν · x = ν 1 · · · ν n · νj = νj · νj = c. 0 .. . 0
Somit ist x ∈ A und deshalb A 6= ∅.
b) Sei nun A eine Hyperebene, d.h. A = p + U , wobei p ∈ K n und U ⊂ K n ein (n − 1)-dimensionaler Untervektorraum ist. Sei (w1 , . . . w n−1 ) eine geordnete Basis von U . t w1 . Die Matrix .. ∈ M (n − 1) × n, K hat den Rang (n − 1), da die Zeilen t wn−1 linear unabh¨ angig sind. Also ist w1t w1t . . n . . dim ker . = dim(K ) − rg . t t wn−1 wn−1 = n − (n − 1) = 1.
w1t . . W¨ ahle nun ein ν ∈ ker . mit ν 6= 0. Dann gilt: t wn−1 t ν t · wj = wjt · ν = 0t = 0.
F¨ ur ein beliebiges u ∈ U ist u = t
t
ν ·u=ν ·
n−1 X j=1
n−1 P
αj wj und somit
j=1
αj w j =
n−1 X j=1
αj · (ν t · wj ) = 0. | {z } =0
F¨ ur ein beliebiges a ∈ A ist a = p + u f¨ ur ein bestimmtes u ∈ U und somit ν t · a = ν t · (p + u) = ν t · p + ν| t{z· u} = c. | {z } =:c
=0
112
Kapitel 17. Geometrie im Raum Damit ist A ⊂ {x ∈ K n | ν t · x = c}. Nach Voraussetzung ist A ein affiner Unterraum der Dimension (n − 1). Nach a) ist {x ∈ K n | ν t · x = c} ebenfalls ein affiner Unterraum der Dimension (n − 1). Außerdem ist A ⊂ {x ∈ K n | ν t · x = c}. Somit stimmen sie u ¨berein. 2
17.10 Beispiel. Geraden im K 2 haben Hesse’sche Normalform. Ebenen im K 3 haben Hesse’sche Normalform. 17.11 Bemerkung. Berechnung der Schnittmenge einer Geraden mit einer Hyperebene: Gerade G = {p + s · v | s ∈ K}, Hyperebene H = {x ∈ K n | ν t · x = c} Berechne G ∩ H: x ∈ G ∩ H ⇐⇒ ∃s ∈ K : x = p + sv und ν t · x = c
⇐⇒ ∃s ∈ K : c = ν t · (p + sv) = ν t p + sν t v und x = p + sv ⇐⇒ ∃s ∈ K : sν t v = c − ν t p und x = p + sv
Fall 1: ν t · v 6= 0, also G und H sind nicht parallel. t p =⇒ s = c−ν νtv
t
t
c−ν p p =⇒ x = p + c−ν ν t v · v ist der eindeutige Schnittpunkt: G ∩ H = {x} = {p + ν t v · v}. Fall 2: ν t · v = 0, d.h. G und H sind parallel.
Fall 2a): c − ν t · p = 0 (d.h. p ∈ H), dann gilt sν t · v = c − ν t · p f¨ ur jedes s ∈ K =⇒ G ⊂ H.
Fall 2b): c − ν t · p 6= 0 (d.h. p 6∈ H), dann gilt sν t · v = c − ν t · p f¨ ur kein einziges s ∈ K =⇒ G ∩ H = ∅. Schematisch:
G, H nicht parallel eindeutiger Schnittpunkt
G, H parallel G⊂H
G∩H =∅
17.12 Beispiel. K = R, n=3 0 1 G = {p + sv | s ∈ R}, p = 1 , v = 0 1 1 0 1 1 H = {q + su + tw | s, t ∈ R}, q = 2 , u = 0 , w = 1 0 0 3 Wir berechnen die Hesse’sche Normalform von H: ! ! ut 1 0 0 Betrachte die Matrix = und suche ein ν ∈ R3 , ν 6= 0 mit wt 0 1 0 ! 0 1 0 0 · ν = 0: ν = 0 tut’s! 0 1 0 1 1 Die Konstante c l¨ asst sich berechnen als c := ν t q = 0 0 1 2 = 3. Somit ist 3
113 die Hesse’sche Normalform von H gegeben durch H = {x ∈ R3 | 0 0 1 · x = 3}.
0 Nun ist ν t v = 0 0 1 0 = 1 6= 0, d.h. G und H sind nicht parallel und haben 1 somit einen eindeutigen Schnittpunkt. Dieser Schnittpunkt ist 1 3 − 0 0 1 1 1 0 1 c − νtp · v = 1 + · 0 x=p+ νtv 1 1 1 1 0 1 = 1 + 2 · 0 = 1 . 3 1 1
Skizze zu diesem Beispiel:
→
w H
u
q
x v
←p e3 e2 e1
G Von nun an betrachten wir den interessanten Spezialfall K = R, V = R3 . 17.13 Definition. Die Abbildung R3 × R3 −→ R mit (v, w) 7→ hv, wi := v1 w1 + v2 w2 + v3 w3 heißt euklidisches Skalarprodukt. v2 w3 − v 3 w2 Die Abbildung R3 × R3 −→ R3 mit (v, w) 7→ v × w := v3 w1 − v1 w3 heißt v1 w2 − v 2 w1 Vektorprodukt. 17.14 Satz. F¨ ur alle u, v, v 0 , w, w0 ∈ R3 und f¨ ur alle α, β ∈ R gilt: a) Bilinearit¨at des Skalarprodukts: hαv + βv 0 , wi = αhv, wi + βhv 0 , wi, hv, αw + βw0 i = αhv, wi + βhv, w 0 i,
114
Kapitel 17. Geometrie im Raum
b) Symmetrie des Skalarprodukts: hv, wi = hw, vi, c) positive Definitheit des Skalarprodukts: hv, vi ≥ 0 und hv, vi = 0 ⇔ v = 0 ; d) Bilinearit¨at des Vektorprodukts: (αv + βv 0 ) × w = α(v × w) + β(v 0 × w), v × (αw + βw0 ) = α(v × w) + β(v × w 0 ), e) Antisymmetrie des Vektorproduktes: v × w = −w × v ; f ) Grassmann-Identit¨at: u × (v × w) = hu, wiv − hu, viw, g) Jacobi-Identit¨at: u × (v × w) + v × (w × u) + w × (u × v) = 0, h) hu × v, wi = hu, v × wi. Beweis:
1) – 5) sowie 8) simples Nachrechnen.
6) v2 w3 − v 3 w2 u1 u × (v × w) = u2 × v3 w1 − v1 w3 v1 w2 − v 2 w1 u3 u2 (v1 w2 − v2 w1 ) − u3 (v3 w1 − v1 w3 ) = u3 (v2 w3 − v3 w2 ) − u1 (v1 w2 − v2 w1 ) u1 (v3 w1 − v1 w3 ) − u2 (v2 w3 − v3 w2 ) u2 v 1 w 2 − u 2 v 2 w 1 − u 3 v 3 w 1 + u 3 v 1 w 3 = u3 v 2 w 3 − u 3 v 3 w 2 − u 1 v 1 w 2 + u 1 v 2 w 1 u1 v 3 w 1 − u 1 v 1 w 3 − u 2 v 2 w 3 + u 2 v 3 w 2 u2 w2 v1 + u3 w3 v1 +u1 w1 v1 − u1 v1 w1 − u2 v2 w1 − u3 v3 w1 = u3 w3 v2 + u1 w1 v2 +u2 w2 v2 − u2 v2 w2 − u3 v3 w2 − u1 v1 w2 u1 w1 v3 + u2 w2 v3 +u3 w3 v3 − u3 v3 w3 − u1 v1 w3 − u2 v2 w3 (u1 w1 + u2 w2 + u3 w3 )v1 − (u1 v1 + u2 v2 + u3 v3 )w1 = (u1 w1 + u2 w2 + u3 w3 )v2 − (u1 v1 + u2 v2 + u3 v3 )w2 (u1 w1 + u2 w2 + u3 w3 )v3 − (u1 v1 + u2 v2 + u3 v3 )w3
= hu, wiv − hu, viw
7) u × (v × w) + v × (w × u) + w × (u × v) 6)
= hu, wiv − hu, viw + hv, uiw − hv, wiu + hw, viu−hw, uiv
= 0
115 2 17.15 Bemerkung. Man definiert wie im R die euklidische Norm durch p kvk := hv, vi 2
und den Innenwinkel f¨ ur v, w 6= 0 durch hv, wi ^(v, w) := arccos ∈ [0, π]. kvk · kwk
17.16 Satz (Versch¨ arfung der Cauchy-Schwarz-Ungleichung). F¨ ur alle v, w ∈ R3 gilt: hv, wi2 + kv × wk2 = kvk2 · kwk2 . Insbesondere folgt wegen kv × wk2 ≥ 0 daraus die Cauchy-Schwarz-Ungleichung: hv, wi2 ≤ kvk2 · kwk2 ⇒ |hv, wi| ≤ kvk · kwk. Beweis: kv × wk2 = hv × w, v × wi 8)
= hv, w × (v × w)i 6)
= v, hw, wiv − hw, viw 1)
= hw, wihv, vi − hw, vihv, wi 2)
= kwk2 · kvk2 − hv, wi2 2 Wir wollen nun das Vektorprodukt geometrisch deuten. hv, v × wi = hv × v, wi = 0, 5)
denn v × v = −v × v ⇒ v × v = 0 =⇒ v × w ⊥ v. Analog ergibt sich: v × w ⊥ w.
v×w w v
Das Vektorprodukt v × w steht also senkrecht auf v und auf w. Aus der versch¨ arf” ten Cauchy-Schwarz-Ungleichung“ (die, wie der aufmerksame Leser mit Sicherheit festgestellt hat, nun eine Gleichung geworden ist) ergibt sich eine genaue Formel zur Berechnung der Norm des Vektorproduktes: kv × wk2 = kvk2 · kwk2 − hv, wi2
2 = kvk2 · kwk2 − cos ^(v, w) · kvk2 · kwk2 (Definition des Innenwinkels) 2 = kvk2 · kwk2 · 1 − cos ^(v, w) 2 = kvk2 · kwk2 · sin ^(v, w) (trigonometrischer Pythagoras) | {z } |
∈[0,π]
{z
≥0
=⇒ kv × wk = kvk · kwk · sin ^(v, w).
}
116
Kapitel 17. Geometrie im Raum
Wenn wir nun versuchen, diese Gleichung zu interpretieren, stoßen wir auf einen recht interessanten Sachverhalt; dazu aber erst einmal die folgende Skizze: w F kwk · sin ^(v, w) ^(v, w) kvk
v
Wir wissen, dass sich der Fl¨ acheninhalt eines Parallelogramms aus Grundseite ” mal H¨ ohe“berechnen l¨ asst. Aus unserer Skizze entnehmen wir also F = kvk · kwk · sin ^(v, w) ; das ist aber genau unser Ergebnis f¨ ur kv ×wk. Somit kann F = kv ×wk als Fl¨ acheninhalt des von v und w aufgespannten Parallelogramms interpretiert werden! 17.17 Bemerkung. Seien v, w linear unabh¨ angig. Dann gibt es genau zwei Vektoren mit der Norm F , die auf v und w senkrecht stehen:
w v
Um die richtige Richtung“ zu bestimmen, benutzt man die so genannte Rechte” ” Hand-Regel“: Man spreizt Daumen, Zeige- und Mittelfinger der rechten Hand derart, dass sie ann¨ ahernd einen rechten Winkel bilden, wobei der Mittelfinger senkrecht von der Handinnenfl¨ ache wegzeigt. Dann richtet man die Hand so aus, dass der Daumen in dieselbe Richtung zeigt wie der Vektor v und der Zeigefinger in die Richtung, wo auch der Vektor w hinzeigt. (Falls der Winkel zwischen v und w zu stumpf ist, macht es nichts, wenn die Finger nicht genau in die richtige Richtung zeigen; es ist nur wichtig, ob w links“ oder rechts“ von v abgeht.) Der Mittelfinger ” ” zeigt nun dorthin, wo auch v × w hinzeigt. Anmerkung in eigener Sache: Sollte sich jemand u uhrliche ¨ ber diese extrem ausf¨ Beschreibung wundern – ich hab’s wirklich schon falsch gesehen! 17.18 Beispiel. v = e1 , w = e2 ⇒ v × w = e3 17.19 Definition. Ein Parallelotop P ist eine Teilmenge P ⊂ R3 der Form P = {p + αb1 + βb2 + γb3 | 0 ≤ α, β, γ ≤ 1}, wobei b1 , b2 , b3 eine Basis des R3 bilden und p ∈ R3 . b3
b2 p
b1
117 Wir wollen nun das Volumen solch eines Parallelotops bestimmen. Sei dazu O.B.d.A. p = 0. Betrachten wir zun¨ achst den Spezialfall b3 ⊥ b1 , b2 . Dann sind b3 und b1 × b2 linear abh¨ angig, der Winkel zwischen diesen beiden Vektoren ist also 0 und das Vektorprodukt b3 × (b1 × b2 ) ist ebenfalls 0. Nach dieser Vor¨ uberlegung k¨ onnen wir anfangen zu rechnen: vol(P ) = H¨ ohe“ · Grundfl¨ ache“ ” ” = kb3 k · kb1 × b2 k p = hb3 , b1 × b2 i2 +kb3 × (b1 × b2 )k2 {z } |
versch¨ arfte CSU“ ”
=0
= |hb3 , b1 × b2 i| = |hb1 × b2 , b3 i|.
Der allgemeine Fall, dass b3 nicht notwendigerweise senkrecht auf b1 und b2 steht, l¨ ost sich ganz einfach auf, indem wir erstens die H¨ ohe b03 suchen und in Komponenten zerlegen, wobei wir uns leicht u ¨berlegen (oder der nachfolgenden Skizze entnehmen), dass die Komponente in Richtung b3 genau 1 · b3 sein muss. . . βb2 b03
αb1 b3
(b03 = b3 + αb1 + βb2 )
b2 p
b1 . . . und zweitens nicht aus den Augen verlieren, dass b1 × b2 sowohl auf b1 als auch auf b2 senkrecht steht, und dann wissen wir ja noch, dass das Skalarprodukt zweier senkrechter Vektoren null wird. Nun k¨ onnen wir fr¨ ohlich losrechnen: vol(P ) = H¨ ohe“ · Grundfl¨ ache“ ” ” = |hb1 × b2 , b03 i| (siehe Spezialfall) = |hb1 × b2 , b3 + αb1 + βb2 i|
= |hb1 × b2 , b3 i + α hb1 × b2 , b1 i +β hb1 × b2 , b2 i | {z } {z } | | =0
=0
= |hb1 × b2 , b3 i|.
Wir haben nun also f¨ ur alle Parallelotope folgenden 17.20 Satz. Das Volumen eines von b1 , b2 und b3 aufgespannten Parallelotops betr¨agt vol(P ) = |hb1 × b2 , b3 i|. 17.21 Bemerkung. Statt Parallelotop“ kann man auch das Wort Spat“ be” ” nutzen. Deshalb wird der Ausdruck hb1 × b2 , b3 i manchmal auch als Spatprodukt bezeichnet.
118
Kapitel 17. Geometrie im Raum
Kapitel 18
Determinanten Wir suchen nun eine allgemeine Formel f¨ ur das n-dimensionale Volumen ndimensionaler Parallelotope P ⊂ Rn . Dazu schreiben wir die Transponierten der Basisvektoren, die P aufspannen, als Zeilen in eine Matrix. Jetzt suchen wir nur noch eine Abbildung M (n × n, R) −→ R, die das Gew¨ unschte leistet, so dass also der Betrag des Ergebnisses das Volumen des (durch diese Matrix beschriebenen) Parallelotops darstellt. 18.1 Definition. Sei K ein K¨ orper, sei n ∈ N, n ≥ 1. Eine Abbildung det : M (n × n, K) −→ K ,
A 7→ det(A)
heißt Determinantenabbildung , falls Folgendes gilt: (D1) det ist linear in jeder Zeile, d.h.
a1 a1 . . .. .. ai−1 ai−1 det λai = λ · det ai und ai+1 ai+1 . . . . . . an an
a1 a1 a1 . . . .. .. .. ai−1 ai−1 ai−1 0 00 00 0 det ai + ai = det ai + det ai ; ai+1 ai+1 ai+1 . . . . . . . . . an an an
(D2) det ist alternierend, d.h.
stimmen zwei Zeilen von A u ¨berein, so ist det(A) = 0 ;
120
Kapitel 18. Determinanten
(D3) det ist normiert, d.h. det(
n)
= 1.
Wir werden bald sehen, dass es zu jedem K¨ orper und jedem n ∈ N, n ≥ 1 genau eine Determinantenabbildung gibt. 18.2 Satz. Sei K ein K¨orper, sei n ∈ N, n ≥ 1. Sei det : M (n × n, K) −→ K eine Determinantenabbildung. Dann gilt f¨ ur alle A, B ∈ M (n × n, K) und alle λ ∈ K: (D4) det(λA) = λn · det(A) ; (D5) Ist eine Zeile von A gleich 0, so ist det(A) = 0 ; (D6) Entsteht B aus A durch Vertauschung zweier Zeilen, so ist det(B) = − det(A) ; (D7) Entsteht B aus A durch Addition des Vielfachen einer Zeile zu einer anderen, so ist det(B) = det(A) ; (D8) Ist A eine obere Dreiecksmatrix mit den Diagonaleneintr¨agen λ1 , . . . , λn , d.h. λ1 A= 0 so ist det(A) = λ1 · · · · · λn = Beweis:
irgendwas ..
. λn
n Q
,
λj .
j=1
(D4) a1 a 2 a = det λ 3 .. .
λa1 λa 2 λa det 3 .. .
det(λA)
=
an
a1 λa 2 λa = λ det 3 .. .
=
λan
= ···
=
λan a1 a 2 2 λa λ det 3 .. . λan
a1 a 2 n a λ det 3 .. . an
=
λn det(A)
121
a1 a1 a1 . . . .. .. .. ai−1 ai−1 ai−1 (D5) det(A) = det 0 = det 0 · 0 = 0 · det 0 = 0 ai+1 ai+1 ai+1 . . . . . . . . . an an an a1 . . (D6) Sei A = . , B gehe aus A durch Vertauschung der i-ten mit der j-ten an Zeile hervor, wobei man i < j w¨ ahlt. Nun ist
a1 a1 a1 . . . . . . . . . ai−1 ai−1 ai−1 a a a + a j i j i ai+1 ai+1 ai+1 (D2) . . . 0 = det .. = det .. + det .. a a a j−1 j−1 j−1 ai + aj a i + a j a i + a j aj+1 aj+1 aj+1 . . . .. .. .. an an an a1 a1 a1 a1 . . . . . . . . . . . . ai−1 ai−1 ai−1 ai−1 a a a a j j i i ai+1 ai+1 ai+1 ai+1 . . . . = det .. + det .. + det .. + det .. a a a a j−1 j−1 j−1 j−1 aj ai aj ai aj+1 aj+1 aj+1 aj+1 . . . . .. .. .. .. an an an an
(D2)
= 0 + det(A) + det(B) + 0 =⇒ det(B) = − det(A).
(D7) B entstehe aus A durch Addition des λ-fachen der j-ten zur i-ten Zeile, wobei
122
Kapitel 18. Determinanten j 6= i. Dann ist
a1 .. . ai−1 det(B) = det ai + λaj ai+1 .. . an a1 a1 . . .. .. ai−1 ai−1 = det ai + λ det aj ←− i-te Zeile ai+1 ai+1 . . . . . . an an (D2)
= det(A) + 0 = det(A).
(D8) 1. Fall λi 6= 0 ∀i = 1, . . . , n Durch Anwendung elementarer Zeilenumformungen, die jedoch allesamt die Voraussetzungen f¨ ur (D7) erf¨ ullen, kann A in eine Diagonalmatrix u uhrt werden: ¨berf¨ λ1 0 .. A= . 0 λn Nach (D7) ist dann
det(A) = det
λ1
0 ..
0 λ1 et1
.
. . = det . λn etn
λn
= λ1 · · · · · λn · det( n (D3) Y = λi .
n)
i=1
2. Fall λi = 0 f¨ ur ein bestimmtes i O.B.d.A. sei i maximal mit der Eigenschaft, dass λi = 0, d.h. λi+1 , . . . , λn 6= 0. Dann k¨ onnen wir durch Zeilenumformungen wie oben eine Matrix B der
123 Form λ1 B= 0 0
0
..
.
···
λi−1 ···
0
··· λi+1
··· ..
(D7)
.
0 ←− i-te Zeile λn
(D5)
erreichen. Also ist det(A) = det(B) = 0. 2 18.3 Satz. (D9) det(A) = 0 ⇔ rg(A) < n Beweis: (D9) Wir nennen Zeilenvertauschungen und die Addition von Vielfachen von Zeilen ¨ zu anderen Zeilen spezielle Zeilenumformungen . Uberf¨ uhre A durch spezielle Zeilenumformungen in eine obere Dreiecksmatrix A0 (Gauß-Algorithmus). Dann gilt nach (D6) und (D7): det(A0 ) = ± det(A). Weiterhin wissen wir: λ1 irgendwas .. = λ 1 · · · λn . det(A0 ) = det . 0 λn det(A) = 0 ⇐⇒ det(A0 ) = 0
⇐⇒ λ1 · · · λn = 0
⇐⇒ ∃j λj = 0 ⇐⇒ A0 ist nicht invertierbar
⇐⇒ rg(A) = rg(A0 ) < n
2 18.4 Folgerung. F¨ ur jeden K¨orper K und jedes n ∈ N, n ≥ 1 gibt es h¨ochstens eine Determinantenabbildung det : M (n × n, K) −→ K. f : M (n × n, K) −→ K DeterminantenabbildunBeweis: Seien det und det ¨ gen. Sei nun A ∈ M (n × n, K). Uberf¨ Zeilenumformungen uhre A durch spezielle λ1 irgendwas .. . Sei k die Anzahl der in eine obere Dreiecksmatrix A0 = . 0 λn Zeilenvertauschungen. Da det die Eigenschaften (D6) – (D8) erf¨ ullt, ist det(A) = (−1)k det(A0 ) = (−1)k λ1 · · · λn ; f dasselbe gilt jedoch auch analog f¨ ur det: f Somit ist det(A) = det(A).
f det(A) = (−1)k λ1 · · · λn .
2
124
Kapitel 18. Determinanten
18.5 Beispiel.K = C 0 1 i A = 1 i 1 2 3 4 2 3 4 2 3 4 det(A) = − det 1 i 1 = − det 0 i − 23 −1 0 1 i 0 1 i 2 3 4 0 i − 3 −1 = − det = −2(i − 23 )(i + i−1 3 ) = −2(i − 23 )i − 2(i − 32 ) i−1 3 2 2 2 −1 0 0 i − i− 3 2
= −2(−1 − 23 i) − 2 = 3i
18.6 Satz. F¨ ur jeden K¨orper K und jedes n ∈ N, n ≥ 1 gibt es genau eine Determinantenabbildung det : M (n × n, K) −→ K. Beweis: Die Eindeutigkeit haben wir bereits gezeigt. Die Existenz zeigen wir durch vollst¨ andige Induktion nach n.
Induktionsanfang: n = 1 Definiere det1 : M (1 × 1, K) −→ K durch det1 (a) := a. Dann sind (D1) – (D3) offenbar erf¨ ullt. Induktionsschritt: n − 1 → n Hierzu nehmen wir also an, es gebe genau eine Determinantenabbildung detn−1 : M (n − 1) × (n − 1), K −→ K, und wollen eine f¨ ur n finden. W¨ ahle dazu ein j ∈ {1, . . . , n} und setze det n (A) :=
n X
(−1)i+j aij det n−1 (AStr ij ),
i=1
wobei f¨ ur i, j ∈ {1, . . . n} AStr ij diejenige (n − 1) × (n − 1)-Matrix bezeichne, welche durch Streichen der i-ten Zeile und j-ten Spalte entsteht:
AStr ij
a11 .. . = | ai1 . .. an1
··· .. . ··· ···
j-te Spalte a1j .. . aij .. . anj
··· ··· .. . ···
a1n .. . ain |i-te Zeile .. . ann
(Streichungsmatrix).
Nachweis der Axiome (D1) – (D3): zu (D1): Entstehe A˜ aus A durch Multiplikation der k-ten Zeile mit λ ∈ K. Zu ˜ = λ · det(A). zeigen ist nun detn (A) Es gilt nat¨ urlich A˜Str = AStr kj kj , da ja genau die vervielfachte Zeile gestrichen wird. Str F¨ ur i 6= k entsteht A˜Str ij aus Aij durch Multiplikation einer Zeile mit λ, Str also ist detn−1 (A˜Str ij ) = λ detn−1 (Aij ).
125
˜ = =⇒ det n (A)
X
k+j a ˜kj det n−1 (A˜Str (−1)i+j a ˜ij det n−1 (A˜Str ij ) +(−1) kj ) |{z} | |{z} | {z } {z } i6=k aij
n X
=λ
λakj
λ det n−1 (AStr ij )
det n−1 (AStr kj )
(−1)i+j aij det n−1 (AStr ij )
i=1
= λ · det n (A) Die Additivit¨ at zeigt man analog. zu (D2): Sei A ∈ M (n × n, K). M¨ ogen die k-te und die l-te Zeile u ¨bereinstimmen. O.B.d.A. sei k < l. Zu zeigen ist nun: detn (A) = 0. Ist l 6= i 6= k, dann besitzt auch AStr ij zwei identische Zeilen, somit ist Str ¨ detn−1 (Aij ) = 0, die entsprechenden Summanden fallen also weg. Ubrig bleibt det n (A) = (−1)k+j akj |{z} =alj
det n−1 (AStr kj ) | {z }
+(−1)l+j alj det n−1 (AStr lj ).
=(−1)l−k−1 det n−1 (AStr lj )
Woher kommen jetzt die Ausdr¨ ucke, die unter den geschweiften Klammern stehen? Dass akj = alj ist, ergibt sich sofort aus der Gleichheit der Str k-ten und l-ten Zeile. Die Betr¨ age der Determinanten von AStr lj und Akj sind gleich, da die eine Matrix aus der anderen lediglich durch Zeilenvertauschungen hervorgeht. Nun kann man sich mit wenig M¨ uhe u ¨berlegen, dass (l −k −1) Vertauschungen notwendig sind, daher der Vorfaktor, also det n (A) = (−1)k+j+l−k−1 +(−1)l+j alj det n−1 (AStr lj ) = 0. {z } |
zu (D3): F¨ ur A =
n
ist
|
=(−1)(l+j)−1
{z
}
=0
n X det n (A) = (−1)i+j · aij · det n−1 (AStr ij ) mit aij = i=1
(
0 f¨ ur i 6= j 1 f¨ ur i = j
= (−1)j+j det n−1 (AStr jj ) = (−1)2j det n−1 ( {z | 1
n−1 )
}
= 1.
2
Dieser Beweis zeigt auch den folgenden 18.7 Satz (Spaltenentwicklungssatz von Laplace). F¨ ur jedes A ∈ M (n × n, K), n ≥ 2 gilt n X det(A) = (−1)i+j aij det(AStr ij ), i=1
wobei 1 ≤ i ≤ n.
! a b 18.8 Beispiele. a) K beliebig, A = . c d Dann ist det(A) = a · det (d) − c · det (b) = ad − bc.
126
Kapitel 18. Determinanten
0 1 i b) K = C, A = 1 i 1 . 2 3 4
i 1 det(A) = 0 · det 3 4
!
1 i − 1 · det 3 4
!
1 + 2 · det i
! i 1
= −(4 − 3i) + 2(1 − i2 ) = 3i 18.9 Bemerkung. Die Vorzeichen (−1)i+j in der Laplace-Entwicklung bilden ein Schachbrettmuster: − + − + − +
+ − + − + −
+ − + − + −
− + − + − +
+ − + − + −
− + − + − +
18.10 Folgerung. Die Determinante ist linear in jeder Spalte. (Das h¨ort sich jetzt an wie Axiom (D1), aber dieses spricht von Zeilen, nicht von Spalten.) D.h. f¨ ur alle a1 , . . . , an , a0j , a00j ∈ K n , λ ∈ K gilt:
det a1
det a1
an = λ det a1
···
λaj
a0j + a00j , · · ·
···
Beweis:
···
an = det a1
···
a0j
··· ···
aj
···
an ;
an +det a1
···
a00j
Die Entwicklung nach der j-ten Spalte liefert
det a1
···
λaj
···
n X (−1)i+j (λaij ) det(AStr an = ij ) = λ det(A). i=1
2 Analog zeigt man die Additivit¨ at. 18.11 Satz. F¨ ur alle A ∈ M (n × n, K) gilt: det(At ) = det(A). f : M (n × n, K) −→ K mit det(A) f Beweis: Definiere det := det(At ). Wenn es f uns nun gelingt zu zeigen, dass det eine Determinantenabbildung ist, dann wissen wir schon, dass diese mit det identisch ist, denn die Determinantenabbildung ist ja eindeutig (solange wir im selben M (n × n, K) bleiben)! ¨ Uberpr¨ ufen wir also die Axiome. f folgt aus (D1) f¨ (D1) f¨ ur det ur det und Folgerung 18.10. (D2) Habe A zwei gleiche Zeilen.
f (D3) det(
n)
= det(
t n)
=⇒ At hat zwei gleiche Spalten =⇒ rg(At ) < n f =⇒ det(A) = det(At ) = 0
= det(
n)
= 1.
···
an .
127 f gezeigt. Und damit haben wir die Gleichheit von det und det
2
18.12 Satz (Zeilenentwicklungssatz von Laplace). F¨ ur jedes A ∈ M (n × n, K), n ≥ 2 gilt n X det(A) = (−1)i+j aij det(AStr ij ), j=1
wobei 1 ≤ j ≤ n. Beweis: Wir k¨ onnen det(A) = det(At ) durch die Entwicklung nach der i-ten t Spalte von A berechnen. Das jedoch entspricht genau der Entwicklung nach der i-ten Zeile von A. 2 18.13 Beispiel. ! ! ! 0 1 i i 1 1 1 1 i det 1 i 1 = 0 · det − 1 · det + i · det 3 4 2 4 2 3 2 3 4 = −2 + i(3 − 2i) = 3i
18.14 Folgerung. Entsteht A˜ aus A durch Vertauschung zweier Spalten, so ist ˜ = − det(A). det(A) Beweis: A˜t entsteht aus At durch Vertauschen zweier Zeilen, also ist ) ˜ = det(A˜t ) (D6 det(A) = − det(At ) = − det(A).
2 18.15 Satz (Determinantenmultiplikationssatz). F¨ ur alle A, B ∈ M (n×n, K) gilt: det(A · B) = det(A) · det(B). Beweis: 1. Fall: det(B) = 0 =⇒ rg(B) < n =⇒ ∃x ∈ K n , x 6= 0 : Bx = 0 =⇒ A · Bx = 0
=⇒ rg(A · B) < n =⇒ det(A · B) = 0 = det(A) · 0
=⇒ det(A · B) = det(A) · det(B)
2. Fall: det(B) 6= 0 Wir fixieren B und definieren ∀A: det(A · B) f . det(A) := det(B)
f eine DeterminantenabAuch hier gen¨ ugt es wieder zu zeigen, dass durch det f um die bildung gegeben ist, um daraus zu schließen, dass es sich bei det normale“ Determinante det handelt. ”¨ Uberpr¨ ufe nun also die G¨ ultigkeit der Axiome.
128
Kapitel 18. Determinanten (D1) Entsteht Aˆ aus A durch Multiplikation der i-ten Zeile mit λ, so ist
1
0 . Aˆ = .. 0 |
i-te Spalte ···
0 .. .
..
1 .. .
.
λ .. .
0
..
.
1
..
. 0
··· {z
=:∆
.. . ·A. 0 1 }
=⇒ Aˆ · B = ∆ · A · B =⇒ Aˆ ·B entsteht aus A·B, indem man die i-te Zeile mit λ multipliziert. ˆ = λ det(AB) =⇒ det(AB) ˆ f f A) ˆ = det(AB) = λ det(AB) = λdet(A) =⇒ det( det(B) det(B)
Additivit¨at:
Seien a1 , . . . , an , a0i , a00i , b1 , . . . , bn ∈ K n , at1 . .. , B = b1 A= atn
Sei ai = a0i + a00i . Dann ist t a 1 b1 . .. A · B = ati b1 .. . atn b1 =
··· ··· ···
.. . t a0i + a00i b1 .. .
at1 bn .. . t a i bn .. .
atn bn
.. . 0t = ai b1 + a00t i b1 .. .
···
···
···
bn .
.. . t a0i + a00i bn .. . .. . 0t ai bn + a00t i bn . .. .
Nach (D1) f¨ ur det ist dann det(A · B) = det(A0 · B) + det(A00 · B), wobei 0 00 A und A diejenigen Matrizen sind, die in der i-ten Zeile den Eintrag 00t a0t i bzw. ai haben. Dadurch ergibt sich det(AB) det(A0 B) det(A00 B) f f 0 ) + det(A). f det(A) = = + = det(A det(B) det(B) det(B)
129 (D2) A habe zwei gleiche Zeilen. Dann ist rg(A) < n =⇒ rg(A · B) < n =⇒ f det(A · B) = 0, also auch det(A) = 0. (D3) f n ) = det( n · B) = det(B) = 1. det( det(B) det(B) Somit haben wir gezeigt:
det(AB) f det(A) = det(A) = det(B) ⇐⇒ det(A) det(B) = det(AB). 2 1 . 18.16 Folgerung. Ist A ∈ GL(n, K), so ist det(A−1 ) = det(A) Beweis: 1 = det( n ) = det(A · A−1 ) = det(A) · det(A−1 ). Nach Division durch det(A) folgt die Behauptung. 2 18.17 Satz. F¨ ur A ∈ M (n × n, K) setze B := bij i,j=1,...,n mit bij = t i+j Str . Dann gilt: (−1) det(Aji ) = (−1)i+j det AStr ji
A · B = B · A = det(A) ·
n.
Ist insbesondere A invertierbar, so gilt: A−1 = Beweis:
1 · B. det(A)
Der (i, i)-te Eintrag von A · B ist n X j=1
aij · bij =
n X j=1
aij · (−1)j+i det(AStr ij )
= det(A)
(Entwicklung nach der i-ten Zeile).
Der (i, k)-te Eintrag von A · B ist f¨ ur i 6= k n X
aij bjk =
n X
aij (−1)j+k det(AStr kj )
j=1
j=1
=
n X
a ˜kj (−1)j+k det(A˜Str kj )
j=1
˜ = det(A), wobei A˜ aus A entsteht, indem man die k-te Zeile durch die i-te ersetzt. Nun hat ˜ = 0 und damit A˜ aber zwei gleiche Zeilen (die i-te und die k-te)! Somit ist det(A) sind auch alle (i, k)-ten Eintr¨ age von A · B, bei denen i 6= k ist (die also nicht auf der Hauptdiagonalen stehen), gleich 0. Mittels Spaltenentwicklung berechnet man B · A analog. 2 18.18 Beispiele. A=
a) K beliebig, n = 2 a c
b d
!
sei invertierbar ⇒ A
−1
1 = ad − bc
d −c −b a
1 = ad − bc
d −b −c a
!t
!
130
Kapitel 18. Determinanten
b)
t −1 4i − 3 −2 3 − 2i 0 1 i 1 2 −4 + 3i −2i 1 i 1 = 3i 2 3 4 2 i −1 4i − 3 −4 + 31 2 1 = −2i i −2 3i 3 − 2i 2 −1
18.19 Satz (Cramer’sche Regel). Seien a1 , . . . , an , b ∈ K n , sei A = a1 · · · an invertierbar. Dann ist die eindeutige L¨osung x ∈ K n des linearen Gleichungssystems Ax = b gegeben durch det a1 · · · ai−1 b ai+1 · · · an xi = . det(A) Beweis: Ax = b hat genau eine L¨ osung, n¨ amlich x = A−1 ·b. Der (i, j)-te Eintrag 1 i+j Str −1 −1 von A ist A = det(A) (−1) det(Aji ). Also ist ij xi = =
n X
j=1 n X
A−1
ij
(−1)i+j
j=1
· bj
det(AStr ji ) · bj det(A)
n
1 X = det(A) j=1
(−1)i+j det(AStr ji ) | {z }
=det(a1 ··· ai−1 ej ai+1 ··· an ), denn
a1
···
ej
ai−1
ai+1
···
·bj
a11 . .. a 1 j−1 an = a1j a1 j+1 . . . a1n
···
··· ··· ··· ···
ai−1 1 .. . ai−1 j−1 ai−1 j ai−1 j+1 .. . ai−1 n
0 ai+1 1 .. .. . . 0 ai+1 j−1 1 ai+1 j 0 ai+1 j+1 .. .. . . 0 ai+1 n
··· ··· ··· ··· ···
und wenn man nun die Determinante mittels Entwicklung nach der i-ten Spalte berechnet, werden fast alle Streichungsmatrizen mit 0 multipliziert; lediglich AStr ji wird mit 1 multipliziert und bleibt somit als einziger Summand stehen, wobei – Schachbrettmuster nicht vergessen! – dieser noch mit (−1)i+j multipliziert werden muss: Das ist dann genau die Gleichheit, die oben einfach unter der geschweiften Klammer behauptet wurde. n 1 X det a1 · · · ai−1 ej ai+1 · · · an · bj det(A) j=1 1 = det a1 · · · ai−1 b ai+1 · · · an , det(A)
=⇒ x1 =
wobei wir f¨ ur die letzte Gleichheit die Linearit¨ at der Determinante in jeder Pn Spalte nach Folgerung 18.10 ausgenutzt haben und b sich darstellen l¨ asst als b = j=1 bj ej . 2
an1 .. . an j−1 anj , an j+1 .. . ann
131
1 0 1 i x1 18.20 Beispiel. 1 i 1 x2 = 0 0 2 3 4 x3 1 1 i det 0 i 1 0 3 4
x1 =
3i
x2 =
0 1 det 1 0 2 0 3i
x3 =
0 1 det 1 i 2 3 3i
i 1 4 1 0 0
=
4i − 3 4 = +i 3i 3
=
−2 2 = i 3i 3
=
3 − 2i 2 =− −i 3i 3
¨ 18.21 Bemerkung. Ahnliche Matrizen haben dieselbe Determinante, denn ist A˜ ˜ ahnlich zu A, d.h. A = T · A · T −1 , dann ist ¨ det A˜ = det T · A · T −1 = det(T ) · det(A) · det T −1 1 = det(T ) · det(A) · det(T ) = det(A). Ist V ein n-dimensionaler Vektorraum und φ : V −→ V ein Endomorphismus; sind ˜ Basen von V , so sind M B (φ) und M B˜ (φ) ¨ weiterhin B und B ahnlich und somit ˜ B B ˜ det MBB (φ) = det MBB ˜ (φ) .
Wir k¨ onnen deshalb definieren:
18.22 Definition. F¨ ur einen Endomorphismus φ : V −→ V eines endlichdimensionalen Vektorraumes V heißt det(φ) := det MBB (φ) Determinante von φ , wobei B eine Basis von V ist. 18.23 Beispiele.
a) V = R2 , φ = Rθ det(φ) = det M Rθ cos θ = det sin θ
− sin θ cos θ
= cos2 θ + sin2 θ =1
!
132
Kapitel 18. Determinanten
b) V = R2 , φ = Sθ det(φ) = det M Sθ cos 2θ = det sin 2θ
sin 2θ cos 2θ
!
= − cos2 2θ − sin2 2θ = −1.
Das geht auch einfacher!
b2
e2
b1 θ e1
Genau wie im Beispiel 16.11 w¨ ahlen wir B = (b1 , b2 ) als geordnete Basis des R2 und sehen sofort (oder haben’s uns vom erw¨ ahnten Beispiel gemerkt), dass ! 1 0 MBB (φ) = ist. Daraus erh¨ alt man flink: 0 −1 det(φ) = det
MBB (φ)
! 1 0 = det = −1. 0 −1
c) V = R4 [x], φ = diff 2 3 4 k k−1 W¨ ahle die geordnete Basis B , d.h. = (1, x, x , x , x ). Es gilt φ(x ) = k · x 0 1 0 0 0 0 0 2 0 0 B MBB (φ) = 0 0 0 3 0, also ist det(φ) = det MB (φ) = 0. 0 0 0 0 4 0 0 0 0 0
18.24 Bemerkung. F¨ ur Endomorphismen φ, ψ : V −→ V gilt: a) det(φ) 6= 0 ⇔ φ ist ein Automorphismus; 1 f¨ ur alle Automorphismen φ; sowie b) det φ−1 = det(φ) c) det(φ ◦ ψ) = det(φ) · det(ψ).
Kapitel 19
Orientierungen 19.1 Definition. Sei V ein endlichdimensionaler reeller Vektorraum. Zwei geordne ˜ von V heißen gleich orientiert , falls die Ungleichung det T B > 0 te Basen B und B ˜ B gilt. ˜ entgegengesetzt orientiert . Andernfalls heißen B und B ¨ 19.2 Lemma. Die Bedingung gleich orientiert“ definiert eine Aquivalenzrelation ” auf der Menge aller geordneten Basen des endlichdimensionalen reellen Vektorraumes V . Beweis:
Setze dim V =: n.
a) Eine Basis B ist zu sich selbst gleich orientiert, denn det TBB = det n = 1 > 0.
˜ gleich orientiert, so auch B ˜ und B, denn b) Sind B und B −1 ˜ det TBB = det TBB = ˜
1 > 0. det TBB ˜ | {z } >0
˜ sowie B ˜ und B ˆ gleich orientiert, so sind auch B und B ˆ gleich c) Sind B und B orientiert, denn ˜ ˜ B B B B det TBB ˜ = det TB ˜ > 0. ˆ · TB ˆ · det TB ˆ = det TB | {z } | {z } >0
>0
2
19.3 Definition. Sei V ein endlichdimensionaler reeller Vektorraum. Eine Ori¨ ¨ entierung von V ist eine Aquivalenzklasse von Basen nach der Aquivalenzrelation gleich orientiert“. ” 19.4 Lemma. Sei V ein endlichdimensionaler reeller Vektorraum. Dann besitzt V genau zwei Orientierungen. Beweis: a) Wir zeigen zun¨ achst: V hat mindestens zwei Orientierungen. ˜ := Sei dazu B = (b1 , . . . , bn ) eine geordnete Basis von V . Setze nun B
134
Kapitel 19. Orientierungen ˜ ebenfalls eine geordnete Basis von V . (−b1 , b2 , . . . , bn ). Dann ist nat¨ urlich B Untersuche die Orientierung:
TBB ˜
=
−1
0
0 .. . .. . 0
1 .. . ···
··· .. . .. . .. .
···
···
0
..
.
..
.
0 .. . .. B . =⇒ det TB˜ = −1 < 0, 0 1
˜ sind entgegengesetzt orientiert und definieren daher zwei verd.h. B und B schiedene Orientierungen. b) Nun bleibt zu zeigen, dass V h¨ ochstens zwei Orientierungen besitzt. ˜ und B ˆ definierten drei verschiedene Orientierungen, dann Angenommen, B, B ˆ sowie B ˆ und B ˜ entgegengesetzt orientiert w¨ aren insbesondere B und B ˆ B B =⇒ det TBB ˜ = det TB ˜ · det TB ˆ > 0, | {z } | {z } <0
<0
˜ gleich orientiert im Widerspruch zur Annahme. also sind B und B (Warum m¨ ussen die Determinanten unbedingt kleiner als 0 sein, wenn sie nicht positiv sind? K¨onnten sie nicht auch gleich 0 sein? Nun ja, w¨are die Determinante einer Transformationsmatrix gleich 0, dann w¨are ihr Rang nicht maximal, die Spalten der Matrix demnach linear abh¨angig, ebenso die Vektoren einer der Basen“ [derjenigen Basis, die unten am T steht]. Diese Basis“ ” ” w¨are dann aber keine mehr, sie muss ja schließlich aus linear unabh¨angigen Vektoren bestehen!) 2 19.5 Beispiele. Verschaffen wir uns eine anschauliche Vorstellung von der Bedeutung des Konzepts der Orientierung im Falle kleiner Dimensionen n. n = 1 ˜b = t · b ˜b, b sind gleich orientiert:⇔ det (t) = t > 0. V
˜b 0
gleich orientiert b
V entgegengesetzt orientiert 0
b
˜b Die Orientierung entspricht also der Durchlaufrichtung“. ”
135 n = 2 Hier entspricht die Orientierung dem Drehsinn“: ” b2
˜b2
˜b1 gleich orientiert b1
b2
˜b1
˜b2 entgegengesetzt orientiert b1
andigkeit“, d.h. ob man die drei Vekn = 3 Hier entspricht die Orientierung der H¨ ” toren b1 , b2 , b3 (in dieser Reihenfolge) durch Daumen, Zeige- und Mittelfinger (ebenfalls in dieser Reihenfolge) der rechten Hand gem¨ aß der Beschreibung in Bemerkung 17.17 darstellen kann oder ob man dazu die linke Hand nehmen muss: ˜b3
b3 ˜b2
b2
gleich orientiert (beide Systeme: rechte Hand)
˜b1
b1 ˜b1
b3 ˜b2
b2
entgegengesetzt orientiert (rotes System: linke Hand)
˜b3
b1 19.6 Bemerkung. Man kann zeigen: Zwei Basen sind genau dann gleich orientiert, wenn man sie stetig ineinander verformen kann (vgl. Fischer, Abschnitt 3.4). Beweisskizze. Noch relativ leicht l¨ asst sich die Richtung ⇐“ zeigen: ” ˜ Sei Bt = (b1 (t), . . . , bn (t)) mit 0 ≤ t ≤ 1 stetig in t und B0 = B, B1 = B. B B Sei Tt := TBt , dann ist T0 = TB = n und somit det(T0 ) = 1 > 0. Aus der geforderten Stetigkeit der Bt in t kann man nun auf die Stetigkeit der det(Tt ) in t schließen; und wenn man jetzt noch erkennt, dass det(Tt ) 6= 0 ∀t ∈ [0, 1] ist, hat man gezeigt, dass det(Tt ) auch nie kleiner als 0 werden kann. (Man stelle sich hierzu den Funktionsgraph von t 7→ det(Tt ) vor, der stetig sein soll, die det(Tt )-Achse bei 1 schneidet und nirgends null ist – der kann dann auch nicht unter die t-Achse kommen. Dieser Sachverhalt nennt sich in der Analysis Zwischenwert- bzw. Nullstellensatz.) Also ist ˜ auch det(T1 ) = det(TBB1 ) = det(TBB ˜ ) > 0, B und B sind somit gleich orientiert. Die andere Richtung mag der interessierte Leser an oben angegebener Stelle nachsehen. 19.7 Definition. Ist V ein endlichdimensionaler reeller Vektorraum und φ : V −→ V ein Automorphismus, so heißt φ orientierungserhaltend oder orientierungstreu , falls det(φ) > 0, und orientierungsumkehrend , falls det(φ) < 0. 19.8 Bemerkung. φ ist orientierungstreu ⇐⇒ ∀B = (b1 , . . . , bn ) geordnete Basen ˜ := (φ(b1 ), . . . , φ(bn )) gleich orientiert. von V sind B und B Beweis:
˜
˜
TBB = MBB (φ), d.h. det(TBB ) = det(φ).
2
136
Kapitel 19. Orientierungen
Kapitel 20
Volumina 20.1 Notation. Mit Kn bezeichnen wir die Menge aller kompakten Teilmengen des Rn , also Kn := {X ⊂ Rn | X ist kompakt}. Zur Erinnerung: Dass eine Teilmenge des Rn kompakt ist, bedeutet nichts weiter, als dass sie beschr¨ ankt (also sich nicht ins Unendliche erstreckt) und abgeschlossen ist (also der Rand dazugeh¨ ort). 20.2 Definition. Das n-dimensionale Volumen ist eine Abbildung voln : Kn −→ R mit voln (X) ≥ 0 ∀ X ∈ Kn , sodass a) voln (W n ) = 1, wobei W n = {x ∈ Rn | 0 ≤ xi ≤ 1 ∀ i = 1, . . . , n} der ndimensionale Einheitsw¨ urfel ist; b) X ⊂ Y ⇒ voln (X) ≤ voln (Y ) ∀ X, Y ∈ Kn ; c) voln (X ∪ Y ) = voln (X) + voln (Y ) − voln (X ∩ Y ) ∀ X, Y ∈ Kn ; n d) Ist F : Rn −→ Rn eine affine Abbildung, also ∃ A ∈ M (n × n, R), b ∈ R : F (x) = A·x+b, dann gilt f¨ ur alle X ∈ Kn : voln F (X) = det(A) ·voln (X).
20.3 Bemerkung. 4) besagt insbesondere, dass f¨ ur jedes F ∈ E(2) gilt: vol2 F (X) = vol2 (X), da det Rθ = det Sθ = 1. =⇒ Euklidische Bewegungen sind fl¨ achentreu. 20.4 Definition. Eine Teilmenge X ⊂ Rn der Form ( ) n X X = q+ ti b i | 0 ≤ t i ≤ 1 , i=1
wobei {b1 , . . . , bn } eine Basis des Rn ist und q ∈ Rn ein beliebiger Vektor, heißt n-dimensionales Parallelotop . b3 b2 q 0
b1
138
Kapitel 20. Volumina
n n 20.5 Bemerkung. Betrachte die affine Abbildung F : R −→ R mit F (x) = Ax + q, A = b1 · · · bn , wobei b1 bis bn das n-dimensionale Parallelotop X aufspannen.
Dann gilt: F (W n ) = X (kann man leicht mit der Definition von W n nachrechnen). =⇒ voln (X) = voln F (W n ) 4) = det(A) · voln (W n ) 1) = det b1 · · · bn
Wir haben also den folgenden n o n P 20.6 Satz. Ist X = q + ti bi | 0 ≤ ti ≤ 1 ein n-dimensionales Parallelotop, so i=1
gilt:
vol(X) = det b1
Spezialfall n = 3:
vol3 (X) = det b1
Spezialfall Quader:
b2
···
bn .
b3 = hb1 × b2 , b3 i
t1 . Q = q + .. 0 ≤ ti ≤ ai tn ( ) n X = q+ t0i ai ei 0 ≤ t0i ≤ 1 i=1 a1 0 .. = a 1 · · · · a n =⇒ voln (Q) = det . 0 an
20.7 Lemma. Ist X ∈ Kn enthalten in einem (n − 1)-dimensionalen affinen Unterraum, so ist voln (X) = 0. Beweis: Sei V ⊂ Rn ein (n − 1)-dimensionaler affiner Unterraum, sei X ⊂ V . Nach 4) ¨ andert eine Translation das Volumen von X nicht; also k¨ onnen wir o.B.d.A. annehmen, dass 0 ∈ V ist. Dann ist V ein Untervektorraum des Rn . Wir w¨ ahlen die lineare Abbildung φ : Rn −→ Rn mit im(φ) = V und φ|V = idV . Solch ein φ existiert: Wenn man eine geordnete Basis (b1 , . . . , bn−1 ) von V w¨ ahlt und diese zu einer Basis (b1 , . . . , bn−1 , bn )!des Rn erg¨ anzt, sieht man leicht, dass n−1 0 die gew¨ unschten Eigenschaften besitzt. die Abbildung φ mit M (φ) = 0 0 4) Nun gilt aber: voln (X) = voln φ(X) = det(φ) ·voln (X) = 0. 2 | {z } =0
Dreiecke. Sei ∆ ⊂ R2 ein Dreieck. Erg¨ anze es zu einem Parallelogramm ∆ ∪ ∆0 :
139 b2 ∆ ∆0 b1 Wir wissen nun: det b1
3) b2 = vol2 (∆ ∪ ∆0 ) = vol2 (∆) + vol2 (∆0 ) − vol2 (∆ ∩ ∆0 ).
Weiterhin wissen wir aus Lemma 20.7, dass vol2 (∆ ∩ ∆0 ) = 0 ist – schließlich ist ∆ ∩ ∆0 nur ein St¨ uck einer Geraden, also eines 1-dimensionalen affinen Unterraums. Weiterhin wissen wir, dass ∆0 mittels einer Drehung (also einer euklidischen Bewegung F ∈ E(2)) in ∆ u uhrt werden kann, d.h. F (∆0 ) = ∆, woraus sich nach ¨berf¨ Bemerkung 20.3 sofort vol2 (∆0 ) = vol2 (∆) ergibt und daraus weiter: vol2 (∆) =
1 2
det b1
b2 .
20.8! Beispiel. mit den ! Ecken ! Wir wollen ! das 2-dimensionale Volumen des!Dreiecks! −1 1 2 1 −1 2 , und berechnen. Man erh¨ alt b1 = − = und 0 1 −2 1 0 1 ! ! ! 2 −1 3 b2 = − = . Daraus ergibt sich dann sofort: −2 0 −2 ! 2 3 7 1 vol2 (∆) = det = . 2 1 −2 2 20.9 Bemerkung.
vol2 (∆) = 0 ⇔ det b1
b2 = 0
⇔ b1 , b2 sind linear abh¨ angig ⇔ ∆ ist entartet
Die oben hergeleitete Formel eignet sich gut f¨ ur Dreiecke, deren Ecken man explizit kennt. H¨ aufig kennt man jedoch nur Seitenl¨ angen und Winkel. Was macht man dann? Betrachte das folgende Dreieck ∆: b γ a Nach einer euklidischen Bewegung sind !! ! die ! Ecken von!∆ gegeben durch ! Anwendung ! b cos γ − sin γ b b cos γ 0 a = = . , und Rγ 0 sin γ cos γ 0 b sin γ 0 0 ! a b cos γ 1 1 =⇒ vol2 (∆) = det = a · b · sin γ 2 0 b sin γ 2 Wir k¨ onnen nun also das 2-dimensionale Volumen eines Dreiecks, von dem wir zwei Seitenl¨ angen a, b und den eingeschlossenen Winkel γ kennen, nach der Formel vol2 (∆) = 12 a · b · sin γ
140
Kapitel 20. Volumina
berechnen. Spezialfall rechtwinkliges Dreieck: Wenn wir die L¨ ange der beiden Katheten kennen, haben wir γ = sin γ = 1, also b
π 2
und somit
a vol2 (∆) =
a·b 2
.
Daraus erh¨ alt man f¨ ur ein beliebiges Dreieck ∆ eine Fl¨ achenformel in Termen der Grundl¨ ange und der H¨ ohe:
∆1
h
a1
∆ ∆2 a2 a = a 1 + a2
vol2 (∆) = vol2 (∆1 ) + vol2 (∆2 ) − vol2 (∆1 ∩ ∆2 ) | {z } =0
1 1 = a1 · h + a2 · h 2 2 1 1 = (a1 + a2 ) · h = a · h 2 2 vol2 (∆) = 12 a · h
Regelm¨ aßiges n-Eck. En (r) γ
∆
r
r ∆
γ
γ=
2π n
r
2π r2 · sin Also: vol2 (∆) = 2 n n·r2 =⇒ vol2 En (r) = 2 · sin 2π n .
141 Kreisscheibe. D(r) = {x ∈ R2 | kxk ≤ r} sei die Kreisscheibe vom Radius r. Wir wissen, dass jedes regelm¨ aßige n-Eck En (r) in D(r) enthalten ist, also En (r) ⊂ D(r).
r
=⇒ vol2 D(r) ≥ vol2 En (r) nr2 2π ∀n sin = 2 n 2 nr 2π =⇒ vol2 D(r) ≥ lim sin n→∞ 2 n 2 6 2π r = lim · sin x x→0 x 62 sin x = π · r2 lim x→0 x | {z }
| x :=
2π n
=1
= π · r2
Nun haben wir eine Absch¨ atzung nach unten; wir haben aber noch nicht ausgeschlossen, dass das 2-dimensionale Volumen unserer Kreisscheibe gr¨oßer als πr2 ist. Wir m¨ ussen somit als N¨ achstes ein n-Eck um die Kreisscheibe finden, so dass also D(r) ⊂ En (rn ) ist:
r γ rn
γ=
2π n
⇒
γ 2
=
π n
, also ist r = rn · cos
π n
.
142
Kapitel 20. Volumina
=⇒ vol2 D(r) ≤ vol2 En (rn ) nrn2 2π = sin 2 n 2π nr2 = 2 · sin π n 2 cos n
! nr2 1 2π =⇒ vol2 D(r) ≤ lim · · sin n→∞ 2 cos π 2 n n ! π r2 = lim · sin x x→0 x cos x 2 2 ! sin x 1 = π · r2 · lim 2 · x→0 x} cos x2 | {z | {z } −→1
= πr
2
=⇒ Ellipsen.
| x :=
2π n
−→1
vol2 D(r) = π · r2
E(a, b)
b a
Man kann die Kreisscheibe D(1) mittels einer euklidischen Abbildung auf die Ellipse ! a 0 abbilden: E(a, b) = φ D(1) mit M (φ) = . Also ist 0 b ! a 0 vol2 E(a, b) = det · vol2 D(1) 0 b vol2 E(a, b) = a · b · π. =⇒ Verallgemeinerte Zylinder.
20.10 Definition. Sei X ⊂ Rn−1 , sei h ≥ 0. Dann heißt Zh (X) = X × [0, h] ⊂ Rn−1 × R = Rn verallgemeinerter Zylinder ¨ uber X mit der H¨ohe h . R
h
Zh (X) X
Rn−1
143 20.11 Satz. Die Abbildung Kn −→ R verm¨oge X 7→ voln Z1 (X) erf¨ ullt die f¨ ur das n-dimensionale Volumen geforderten Eigenschaften 1) bis 4). Beweis: 1) voln Z1 (W n−1 ) = voln (W n ) = 1 | {z } =W n
2)
X⊂Y 3)
⇒ Z1 (X) ⊂ Z1 (Y ) ⇒ voln Z1 (X) ≤ voln Z1 (Y )
voln Z1 (X ∪ Y ) = voln Z1 (X) ∪ Z1 (Y ) = voln Z1 (X) + voln Z1 (Y ) − voln Z1 (X) ∩ Z1 (Y ) = voln Z1 (X) + voln Z1 (Y ) − voln Z1 (X ∩ Y )
4) Sei F : Rn−1 Rn−1 affin, also F (X) = A · X + b mit A ∈ M (n − 1) × −→n−1 (n − 1), R , b ∈ R . ! ! 0 A b Nun betrachte A˜ := ∈ M (n × n, R), ˜b = ∈ Rn , weiterhin die 0 0 1 n Abbildung F˜ : Rn −→ oge F˜ (˜ x) = A˜ · x˜ + ˜b. R verm¨ ˜ Dann ist F Z1 (X) = Z1 F (X) und sonach voln Z1 F (X) = voln F˜ Z1 (X) ˜ · voln Z1 (X) = det(A) = det(A) · voln Z1 (X)
Z1 D(r)
D(r)
h=1
=⇒ In allen Beispielen X, deren (n − 1)-dimensionales Volumen mittels 1) bis 4) berechnet werden konnte, ergibt sich voln−1 (X) = voln Zn (X) . 2 Insbesondere gilt: vol3 Z1 D(r) = vol2 D(r) = π · r2 .
20.12 Definition. Wir nennen X ∈ Kn−1 leicht berechenbar , falls voln−1 (X) durch die Bedingungen 1) bis 4) aus Definition 20.2 festgelegt ist. Alle bislang betrachteten Beispiele sind leicht berechenbar, da wir explizite Formeln f¨ ur das Volumen aus den Bedingungen 1) bis 4) hergeleitet haben. 20.13 Bemerkung. Es gibt eine lineare Abbildung φ : Rn −→ Rn mit Zh (X) = 1 0 .. . . Somit ist φ Z1 (X) , n¨ amlich diejenige Abbildung mit M (φ) = 1 0 h
144
Kapitel 20. Volumina
voln Zh (X) = voln φ Z1 (X) = det(φ) · voln Z1 (X) = h · voln Z1 (X) .
F¨ ur leicht berechenbare X haben wir also
voln Zh (X) = h · voln−1 (X).
Schiefe Zylinder.
b1 . .. n−1 ∈ Rn , dann heißt Z(X, b) = 20.14 Definition. Sei X ⊂ R ,b = bn−1 h b1 S X + t .. × {t · h} . t∈[0,1] bn−1 uber X in Richtung b mit der H¨ohe h. der schiefe Zylinder ¨ h heißt dann H¨ohe von Z(X, b). b
Z(X, b) h X
Rn−1
Es gibt eine lineare Abbildung φ : Rn −→ Rn mit Z(X, b) = φ Zh (X) , n¨ amlich diejenige mit b 1
denn 1 0 0 . . . . . .. .. 0 · · · 0 ···
M (φ) =
··· .. . .. . 0 ···
0 .. . 0 1 0
h
n−1
.. .
bn−1 h
0
1
,
x1 + hs b1 .. .. . . .. . = · . . . . bn−1 s x + x b n−1 n−1 n−1 h h s s 1 b1 h
x1 .. . .. .
(Das sieht jetzt alles ein bisschen kompliziert aus, aber wenn man sich x1 bis xn−1 als Koordinaten eines Punktes vorstellt und s den verallgemeinerten Zylinder
145 sozusagen aufrichtet, also die letzte Koordinate liefert, dann l¨ auft s bei 0 los – da sind wir noch im Rn−1 – und kommt oben bei h an. Auch in unserem schiefen Zylinder l¨ auft nun s bei 0 los – da haben wir noch den Ausgangspunkt im Rn−1 –, aber wenn es nun bei h angekommen ist, haben wir zum Ausgangspunkt pl¨ otzlich genau den Vektor b addiert. Und das steht oben in der Gleichung!) Somit ist voln Z(X, b) = voln φ Zh (X) = det(φ) · voln Zh (X) = voln Zh (X) .
F¨ ur leicht berechenbare X gilt also
voln Z(X, b) = h · voln−1 (X).
Kegel.
20.15 Definition. Sei X ⊂ Rn−1 , b ∈ Rn . Dann heißt C(X, b) = {t·x+(1−t)·b | 0 ≤ t ≤ 1, x ∈ X} verallgemeinerter Kegel ¨ uber X mit der Spitze b. b
C(X, b) X
Rn−1
b1 . .. . Schreibe b = bn−1 h Die lineare Abbildung φ : R
n
−→ R
φ|Rn−1 ×{0} = idRn−1 ×{0} und φ(en ) =
b h
n
mit M (φ) =
b1 h n−1
, also φ−1 (b) = h · en .
.. .
bn−1 h
0
1
erf¨ ullt
Somit ist φ−1 C(X,b) = C(X, h · en ) und deshalb auch voln C(X, b) = voln C(X, h · en ) . 20.16 Beispiel. Wir wollen vol3 C D(r), b berechnen. Nach dem eben Gezeigten 0 sei o.B.d.A. b = h · e3 = 0. h
146
Kapitel 20. Volumina
b h D(r)
he3
←− Z h D( 34 r) 4
D(r)
Wie man aus obenstehender Skizze erkennen kann, gilt
C D(r), h · e3 ⊃
m [
j=1
j h Z h D (1 − ) · r + (j − 1) · · e3 m m m
Daraus ergibt sich dann f¨ ur das 3-dimensionale Volumen:
∀ m.
147
vol3 C D(r), h · e3
≥ vol3 =
m X j=1
m [
j=1
j h Z h D (1 − ) · r + (j − 1) · · e3 m m m
vol3 Z h
m
j h D (1 − ) · r + (j − 1) · · e3 m m
(denn die Schnittmengen sind ja jeweils nur 2-dimensional
und haben somit das 3-dimensionale Volumen 0) j vol3 Z h D (1 − ) · r = m m j=1 m X
(denn Translation ver¨ andert das Volumen nicht) 2 m X j h ·π 1− r2 = m m j=1 2 m X j h 1− = πr2 m m j=1 2 m X m−j h = πr2 m m j=1 =
=
m X h 2 (m − j)2 πr m3 j=1
| k := m − j
m−1 X h 2 πr k2 m3 k=0
h (m − 1)m(2m − 1) = 3 πr2 m 6 (entweder aus der Analysis bekannt oder vollst¨ andige Induktion nach m) 1 1 1− m 2− m = hπr2 6 2 m→∞ hπr −→ 3 hπr2 . vol3 C D(r), h · e3 ≥ 3 Als n¨ achstes m¨ ussen wir das Volumen noch nach unten absch¨ atzen, und dabei hilft uns diese Skizze:
148
Kapitel 20. Volumina
Hieraus entnehmen wir die Beziehung m [ j−1 h Z h D (1 − ) · r + (j − 1) · · e3 C D(r), h · e3 ⊂ m m m j=1 und erhalten einer Rechnung, die analog zur oben ausgef¨ uhrten verl¨ auft, daraus nach 2 sein muss. Wir erhalten also die Gleichheit: dass vol3 C D(r), h · e3 ≤ hπr 3 vol3 C D(r), h · e3 =
h·π·r 2 3
.
¨ Dieselben Uberlegungen liefern f¨ ur ein beliebiges n-Eck (z.B. ein Rechteck) X die Eigenschaft: vol3 C(X, h · e3 ) = h·vol32 (X) . h · e3
X
Tetraeder. Ein Tetraeder ist ein K¨ orper, der durch vier gleichseitige Dreiecke begrenzt wird. Es hat dadurch auch sechs gleich lange Kanten.
a
a a
T (a)
a a
a
Nennen wir T (a) das Tetraeder der Seitenl¨ange a. Sei X die Grundfl¨ ache und h die H¨ ohe von T (a). Dann wissen wir bereits, dass vol3 T (a) = 13 · h · vol2 (X) gilt. Aber vol2 (X) und h muss man doch irgendwie ausrechnen k¨ onnen?! Sehen wir uns dazu die Grundfl¨ ache genauer an: a
h1
a
a Da sehen wir ein gleichseitiges Dreieck, und da wir nie gezeigt haben, dass die Innenwinkel alle π3 betragen, rechnen wir einfach u ¨ber den Satz des Pythagoras die H¨ ohe h1 des Dreiecks aus:
149
h21 +
a 2 2
= a2
3 2 a 4 √ 3 h1 = a. 2 Und jetzt haben wir schon mal unseren Fl¨ acheninhalt: √ √ 1 3 3 2 vol2 (X) = · a · a= a . 2 2 4 Fehlt noch die H¨ ohe h. h21 =
a h1
h h1
h h1 a α h1 Wenn wir h berechnen wollen, m¨ ussen wir dazu das linke Teildreieck betrachten; dort entnehmen wir h = h1 sin α. Wir erhalten aus dem unteren Teildreieck: sin
α 2
=
a 2
h1 α a ⇐⇒ = sin h1 2 2 α √3 a = sin a · ⇐⇒ 2 2 2 α 1 ⇐⇒ sin =√ . 2 3
2 |· √ a 3
Um jetzt sin α zu berechnen, nutzen wir das Additionstheorem sin(2x) = 2 sin x · cos x p = 2 sin x 1 − (sin x)2 (trigonometrischer Pythagoras) α 2 α r =⇒ sin α = 2 sin 1 − sin 2 2 r 1 1 =2· √ 1− 3 3 √ 2 2 . = 3
150
Kapitel 20. Volumina
Daraus erhalten wir sofort h = h1 sin α =
√ 3 2 a
·
√ 2 2 3
=
q
2 3
· a und weiter
1 vol3 T (a) = · h · vol2 (X) 3 r √ 1 2 3 2 = · ·a· ·a 3 3 4 √ 2 3 = ·a . 12 Oktaeder.
a h
h1
O(a)
a
h1
h h1 a
Alle Seiten des Oktaeders sind gleich lang (ich wollte nur nicht zw¨ olf a’s in die Skizze schreiben). Das hilft uns, das Volumen zu berechnen: Zun¨ achst erkennt man, dass O(a) aus zwei entgegengesetzt aufeinander gestellten Pyramiden besteht. Solch eine Pyramide ist nichts anderes als ein verallgemeinerter Kegel u ache (und die kennen ¨ber einem Quadrat. Wir brauchen also nur die Grundfl¨ wir – das ist einfach a2 ) mit 31 der H¨ ohe zu multiplizieren und das dann noch zu verdoppeln: 1 vol3 O(a) = 2 · · h · a2 . 3
Die eigentliche Aufgabe besteht darin, h zu berechnen, und dabei wird uns das oben rot dargestellte Dreieck behilflich sein. h1 kennen wir schließlich schon vom Tetraeder, und dann haben wir noch den Satz des Pythagoras:
151
h21 = h2 +
a 2
2 3 2 1 a = h2 + a2 4 4 1 h2 = a 2 2 a h= √ . 2
Und endlich k¨ onnen wir alles multiplizieren und erhalten vol3 O(a) =
√ 2 3 3 a .
152
Kapitel 20. Volumina
Kapitel 21
Eigenwerte Erinnerung: Jede Matrix A ∈ M (m × n, K) ist ¨ aquivalent zu einer Matrix der Form ! 0 r , wobei r = rg(A). 0 0 In anderen Worten, zu jeder linearen Abbildung φ : V −→ W, ˜ von W , so dass dimensional, gibt es Basen B von V und B ! 0 r B MB˜ (φ) = 0 0
V, W endlich-
Jetzt: Betrachte Endomorphismen φ : V −→ V , d. h. den Fall V = W . Frage: Kann man eine Basis von V finden, so dass ! 0 r MBB (φ) = ? 0 0 In anderen Worten, ist jede Matrix A ∈ M (n, K) ¨ ahnlich zu ! 0 r MBB (φ) = mit r = rg(A)? 0 0 Antwort: Nein. 21.1 Beispiel. 1 0 hat Rang 2, aber A ist nicht zu S r S −1 = SS −1 = r .
2
! 0 2
ahnlich, denn ¨
2
ist nur zu sich selbst ¨ ahnlich:
Ziel: Verstehe Endomorphismen. Insbesondere, suche Basis des Vektorraums bzgl. derer die Matrixdarstellung m¨ oglichst einfach sind. 21.2 Definition. Sei φ : V −→ V ein Endomorphismus, V ein K-Vektorraum. Eine Zahl λ ∈ K heißt Eigenwert von φ, falls es ein 0 6= v ∈ V gibt, so dass φ(v) = λ · v. Ein derartiges v 6= 0 heißt Eigenvektor von φ zum Eigenwert λ. Sei A ∈ M (n, K). Eine Zahl λ ∈ K heißt Eigenwert von A, falls es ein 0 6= v ∈ K n gibt, mit A·v = λ·v. Ein derartiges v 6= 0 heißt Eigenvektor von A zum Eigenwert λ.
154
Kapitel 21. Eigenwerte
21.3 Beispiele.
1) Spiegelungsmatrizen: M (Sθ ) =
cos(2θ) sin(2θ)
! sin(2θ) , − cos(2θ)
θ ∈ R.
sin(θ) Wir haben schon berechnet, dass f¨ ur vθ = cos(θ) , wθ = −cos(θ) gilt: sin(θ) M (Sθ ) · vθ = vθ , M (Sθ ) · wθ = −wθ =⇒ vθ ist Eigenvektor zum Eigenwert 1 und wθ ist Eigenvektor zum Eigenwert −1. 2) Drehmatrizen: cos(θ) sin(θ)
M (Rθ ) =
! − sin(θ) , cos(θ)
0<θ<π
hat keine Eigenwerte ( in R ). 3) K = R, V = C ∞ (R, R) ist ein Untervektorraum von Abb(R, R). Der Ableitungsoperator φ : V −→ V, φ(v) := v 0 ist ein Endomorphismus. Sei λ ∈ R. Setze vλ (t) := eλt , 0 6= vλ ∈ C ∞ (R, R). Es gilt φ(vλ ) = λ · vλ =⇒ Jedes λ ∈ R ist ein Eigenwert von φ mit Eigenvektor vλ . 4) Sei A = ∆(λ1 , . . . , λn ) eine Diagonalmatrix. Es ist A · ej = λj · ej =⇒ ej ist Eigenvektor von A zum Eigenwert λj . Achtung! Nach Definition ist 0 ∈ V niemals Eigenvektor, aber 0 ∈ K kann sehr wohl Eigenwert sein. 21.4 Definition. Ein Endomorphismus φ : V −→ V heißt diagonalisierbar, falls es eine Basis bestehend aus Eigenvektoren von φ gibt. 21.5 Bemerkung. Ist dim V < ∞, so ist B eine Basis aus Eigenvektoren ⇐⇒ MBB (φ) = ∆(λ1 , . . . , λn ), wobei λi ∈ K die Eigenwerte sind. 21.6 Beispiel. Die Spiegelung Sθ ist diagonalisierbar, denn Sθ ist ¨ ahnlich zu der Diagonalmatrix ∆(1, −1). 21.7 Satz. Sei φ : V −→ V ein Endomorphismus. Seien v1 , . . . , vm ∈ V Eigenvektoren von φ zu den paarweise verschiedenen λ1 , . . . , λm ∈ K. Dann sind v1 , . . . , vm linear unabh¨angig. Beweis: durch Induktion nach m: m = 1: v1 6= 0 ist klar. m − 1 → m: Sei v := α1 v1 + · · · + αm vm = 0, αi ∈ K. Z. z.: α1 = · · · = αm = 0. Einerseits 0 = φ(v) = φ( =
m X
k=1 m X k=1
αk v k ) =
m X
αk φ(vk )
k=1
α k λk v k = α 1 λ1 v 1 + · · · + α m λm v m .
Andererseits α 1 λ1 v 1 + · · · + α m λ1 v m = 0 ,
155 woraus durch Subtraktion der beiden Gleichungen folgt α2 (λ2 − λ1 )v2 + · · · + αm (λm − λ1 )vm = 0 . Nach Induktionsannahme sind v2 , . . . , vm linear unabh¨ angig und deswegen α2 (λ2 − λ1 ) = · · · = αm (λm − λ1 ) = 0 | {z } | {z } 6=0
6=0
v1 6=0
=⇒ α2 = · · · = αm = 0 =⇒ α1 v1 = 0 =⇒ α1 = 0
2
21.8 Korollar. Ist n = dim V < ∞, so hat jeder Endomorphismus φ : V −→ V h¨ochstens n paarweise verschiedene Eigenwerte. 2 21.9 Beispiel. M (Sθ ) hat neben +1 und −1 keine weiteren Eigenwerte. 21.10 Beispiel. V = C ∞ (R, R), φ hat unendlich viele paarweise verschiedene Eigenwerte =⇒ dim C ∞ (R, R) = ∞ 21.11 Korollar. Ist dim V = n und hat der Endormorphismus φ : V −→ V n paarweise verschiedene Eigenwerte, dann ist φ diagonalisierbar. Beweis: Seien v1 , . . . , vn Eigenvektoren zu den paarweise verschiedenen Eigenwerten. Der obige Satz liefert nun, dass sie linear unabh¨ angig sind. Wegen dim V = n folgt, dass sie eine Basis von V bilden. 2 21.12 Definition. Sei φ : V −→ V ein Endomorphismus, λ ∈ K. Dann heißt Eig(φ, λ) := {v ∈ V | φ(v) = λ · v} Eigenraum von φ zum Eigenwert λ. 21.13 Bemerkung.
a) Eig(φ, λ) − {0} = {Eigenvektoren zum Eigenwert λ}
b) λ ist Eigenwert ⇐⇒ Eig(φ, λ) 6= {0} c) Eig(φ, λ) = ker(φ − λ · idV ) d) Eig(φ, λ) ist ein Untervektorraum von V . e) λ1 6= λ2 =⇒ Eig(φ, λ1 ) ∩ Eig(φ, λ2 ) = {0} Denn w¨ are 0 6= v ∈ Eig(φ, λ1 ) ∩ Eig(φ, λ2 ), dann m¨ ussten v1 = v und v2 = v linear unabh¨ angig sein. 21.14 Definition. µ(φ, λ) := dim Eig(φ, λ) heißt geometrische Vielfachheit oder auch geometrische Multiplizit¨at des Eigenwerts λ. 21.15 Beispiel. V = R3 , K = R, φ : R3 −→ R3 , φ(v) = ∆(1, 1, 2) · v hat Eigenwerte: 1 und 2. Eig(φ, 2) = {t · e3 |t ∈ R}, µ(φ, 2) = 1 Eig(φ, 1) = span(e1 , e2 ), µ(φ, 1) = 2 Sei V endlich-dimensionaler Vektorraum. Sei ϕ : V → V Endomorphismus. Sei λ ∈ K und dim V = n. λ ist Eigenwert von ϕ ⇔ ∃v ∈ V −{0} : ϕ(v) = λ·v ⇔ ∃v ∈ V −{0} : (ϕ−λ·id)(v) = 0 ⇔ ker(ϕ − λ · id) 6= {0} ⇔ ϕ − λ · id nicht injektiv ⇔ ϕ − λ · id nicht bijektiv ⇔ det(ϕ − λ · id) = 0 21.16 Definition. Die Abbildung Pϕ : K → K, Pϕ (λ) := det(ϕ − λ · id), heißt charakteristisches Polynom von ϕ.
156
Kapitel 21. Eigenwerte
21.17 Bemerkung. λ ist Eigenwert von ϕ ⇔ Pϕ (λ) = 0 21.18 Bemerkung. Wir werden gleich feststellen, dass Pφ (λ) tats¨ achlich ein Poly¨ nom in λ ist, was die Bezeichnung charakteristisches Polynom“ rechtfertigt. Uber ” manchen K¨ orpern, z. B. K = F2 , kann es passieren, dass verschiedene Polynome dieselbe Funktion beschreiben. Wir werden dies im Abschnitt u ¨ber Polynome noch ausf¨ uhrlicher diskutieren. Dann wird es wichtig, dass das charakteristische Polynom wirklich als Polynom aufgefasst wird und nicht nur als Abbildung. Doch, wie gesagt, sp¨ ater mehr dazu. 21.19 Bemerkung. Ist A = MBB (ϕ) darstellende Matrix von ϕ bez¨ uglich einer Basis B von V , so ist MBB (ϕ − λ · id) = A − λ · n . Pϕ (λ) = det(ϕ − λ · id) = det(A − λ · n ) =: PA (λ) Insbesondere haben a ¨hnliche Matrizen dasselbe charakteristische Polynom, da sie denselben Endomorphismus bzgl. verschiedener Basen darstellen. 21.20 Beispiel. A = M (Rθ ) =
− sin θ cos θ
cos θ sin θ
!
Das zugeh¨ orige charakteristische Polynom berechnet sich zu
PA (λ)
cos θ sin θ
= det
− sin θ cos θ
cos θ − λ = det sin θ
!
−λ·
− sin θ cos θ − λ
!
1 0 0 1
!!
= (cos θ − λ)2 + (sin θ)2
= λ2 − 2 cos θ · λ + 1. Die Nullstellen von PA lauten λ1/2
=
p 1 · {2 · cos θ ± 4(cos θ)2 − 4} 2 p
= cos θ ± − sin2 θ = cos θ ± i sin θ.
Im Fall K = R hat PA keine Nullstelle ⇒ A hat keine reellen Eigenwerte, es sei denn sin θ = 0, d.h. θ = k · π, k ∈ Z. Im Fall K = C hat A die Eigenwerte cos θ + i · sin θ, cos θ − i · sin θ. 21.21 Satz. Sei A ∈ M (n × n, K). Dann ist PA (λ) ein Polynom vom Grad n und es gilt PA (λ) = αn λn + αn−1 λn−1 + · · · + α0 , αj ∈ K und αn = (−1)n , αn−1 = (−1)n−1 (a11 + · · · + ann ), α0 = det(A). Beweis: a) Behauptung: PA (λ) = (a11 − λ) · . . . · (ann − λ) + Q(λ), wobei Q ein Polynom vom Grad ≤ n − 2 ist. Beweis durch Induktion nach n:
157 n=1:
A = (a11 ) PA (λ)
= det(A − λ ·
1)
= a11 − λ
n−1→ n:
PA (λ) = det
a11 − λ a21 .. . an1
= det(a11 − λ)
a12 ... a22 − λ a23 ...
...
a1n a2n .. . ann − λ
Entwicklung nach der 1. Spalte liefert a22 − λ . . . a1n .. .. .. = (a11 − λ) · det . . . an1 . . . ann − λ
n X
+
j=2
|
(−1)j−1 aj1 det (A − λ ·
Str n )ij
{z
}
=: Q1 (λ) (ist ein Polynom in λ vom Grad ≤ n − 2)
= (a11 − λ) · PAStr (λ) + Q1 (λ) 11
= (a11 − λ) · (a22 − λ) . . . (ann − λ) +
I.A.
Q2 (λ) | {z }
vom Grad≤n−3
+ Q1 (λ)
= (a11 − λ) · (a22 − λ) · . . . · (ann − λ) + (a11 − λ)Q2 (λ) + Q1 (λ) . | {z } Q(λ)
b)
PA (λ)
= (a11 − λ) · . . . · (ann − λ) + Q(λ)
= (−λ)n + a11 (−λ)n−1 + a22 (−λ)n−1 + . . . + ann (−λ)n−1 + Terme vom Grad ≤ n − 2
= (−1)n λn + (−1)n−1 (a11 + a22 + . . . + ann )λn−1 + Terme ... α0 = PA (0) = det(A − 0 · ) = det(A) 2
21.22 Definition. tr(A) := a11 + . . . + ann heißt Spur von A. ¨ 21.23 Bemerkung. Ahnliche Matrizen haben dasselbe charakteristische Polynom, also dieselben αn , . . . , α0 . Insbesondere haben sie dieselbe Spur. Ist A eine diagonalisierbare Matrix, so kann sie wie folgt diagonalisiert werden: a) Berechne das charakteristische Polynom PA und seine Nullstellen, d.h. die Eigenwerte von A. b) Zu allen Eigenwerten λ bestimme die zugeh¨ origen Eigenr¨ aume Eig(A, λ) = ker(A − λ · n ). Es gilt: x ∈ ker(A − λ n ) ⇔ (A − λ n ) · x = 0. L¨ ose dieses lineare Gleichungssystem z.B. mit Gauß-Algorithmus.
158
Kapitel 21. Eigenwerte
c) W¨ ahle Basen der Eigenr¨ aume und setze sie zu Basis v1 , . . . , vn von K n zusammen. Setze S −1 := (v1 , . . . , vn ). Dann ist S · A · S −1 eine Diagonalmatrix. 21.24 Beispiel. cos(2θ) sin(2θ)
A = M (S0 ) =
sin(2θ) − cos(2θ)
!
1. Schritt: Eigenwertbestimmung
PA (λ)
cos(2θ) − λ = det sin(2θ)
sin(2θ) − cos(2θ) − λ
!
= (cos(2θ) − λ)(− cos(2θ) − λ) − sin2 (2θ) = − cos2 2θ + λ2 − sin2 2θ = λ2 − 1 = (λ + 1)(λ − 1)
Also hat A die Eigenwerte 1 und −1. 2. Schritt: Eigenraumbestimmung a) λ = 1
x ∈ Eig(A, 1) ⇔
! cos(2θ) − 1 sin(2θ) sin(2θ) − cos(2θ) − 1
Da λ = 1 Eigenwert ist, kann der Rang der Matrix A − Also sind die Zeilen linear abh¨ angig.
x1 x2 n
!
h¨ ochstens 1 sein.
Ist θ 6= k · 2π, k ∈ Z, so ist die 1. Zeile nicht trivial. Dann ist x ∈ Eig(A, 1) ⇔ (cos(2θ) − 1)x1 + sin(2θ) · x2 = 0 ⇔ (cos2 θ − sin2 θ − 1) · x1 + 2 sin θ cos θ · x2 = 0
⇔ −2 sin2 θ · x1 + 2 sin θ cos θ · x2 = 0
⇔ −2 sin θ · x1 + 2 cos θ · x2 = 0
⇔ − sin θ · x1 + cos θ · x2 = 0 ! ! x1 cos θ ⇔ =t· x2 sin θ ) ( ! cos θ Eig(A, 1) = t · t ∈ R sin θ Ist 2θ = k · 2π, k ∈ Z, dann ist x ∈ Eig(A, 1) ⇔
! ! 0 0 x1 = 0 −2 x2
Also Eig(A, 1) = {t · e1 |t ∈ R} Also gilt f¨ ur alle θ ∈ R : Eig(A, 1) =
(
0 0
!
⇔ x2 = 0
) ! cos θ t t ∈ R sin θ
=0
159 b) λ = −1
Analog sieht man, dass Eig(A, −1) =
3. Schritt: ! cos θ vθ = , wθ = sin θ
− sin θ cos θ S
!
−1
(
! ) sin θ t t ∈ R . − cos θ
bilden Basis von R2 aus Eigenvektoren. cos θ sin θ
=
− sin θ cos θ
!
= Rθ ,
d.h. S = Rθ
=
cos(−θ) sin(−θ)
=
cos θ − sin θ
Es gilt nun S·A·S
−1
=
− sin(−θ) cos(−θ) ! sin θ . cos θ
!
! 1 0 . 0 −1
21.25 Bemerkung. Falls f¨ ur a ∈ M (n × n, K) und f¨ ur S ∈ Gl(n, K) gilt, dass λ1 0 −1 . , .. SAS = 0 λn dann gilt ∀k ∈ N:
SAk S −1 =
Denn Induktion nach k liefert: k = 0: SA0 S −1 = S
nS
−1
= SS −1 =
k − 1 → k: SAk S −1
= Ind. Annahme =
=
n
λk1 ..
. λkn
0
=
0
1
0 ..
0
. 1
=
λ01
0 ..
. λ0n
0
k−1 −1 −1 SA · AS −1 = SAk−1 S SAS k−1 λ1 0 λ1 .. .. · . . k−1 0 λn 0 λk1 0 . .. 0 λkn
0 λn
160
Kapitel 21. Eigenwerte
21.26 Beispiel. Die Fibonacci-Folge (an )n∈N ist definiert durch zwei Anfangswerte a0 := 0, a1 := 1 und die rekursive Formel an+2 = an+1 + an . Wie sieht eine explizite Formel f¨ ur diese Folge aus? Trick: Wir stellen die rekursive Vorschrift in Matrixsprache dar. Dann u ¨bersetzt sich die obige Frage in ein Eigenwertproblem,!das wir mit den bisher gelernten Methoden l¨ osen k¨ onnen. Dazu setze an+1 vn := ∈ R3 , es gilt dann an vk+1
! 1 1 ·vk = 1 0 | {z } =:A
vk = A k · v0 = A k ·
! 1 . 0
Wir m¨ ussen also nur Ak berechnen. Wir berechnen nun die Eigenwerte von A, um zu sehen, dass A diagonalisierbar ist: ! 1−λ 1 PA (λ) = det = (1 − λ)(−λ) − 1 1 −λ λ1,2
λ1
= λ2 − λ − 1 √ 1 = {1 ± 1 + 4} 2 √ 1± 5 = 2√ √ 1+ 5 1− 5 = ; λ2 = . 2 2
Wir berechnen nun die Eigenvektoren von A: x ∈ Eig(A, λ1 ) ⇔ (A − λ1 · 2 )x ! =0 ! ! 1 − λ1 1 x1 0 ⇔ = 1 −λ1 x2 0 ⇔ (1 − λ1 )x1 + x2 = 0 ) ( ! 1 ⇔ x2 = (λ1 − 1)x1 ⇒ Eig(A, λ1 ) = t t ∈ R λ1 − 1 ) ( ! 1 Analog sieht man, dass Eig(A, λ2 ) = t t ∈ R . λ2 − 1 Setze: ! 1 1 −1 S := λ1 − 1 λ 2 − 1 ⇒S
! λ2 − 1 −1 1 − λ1 1 ! λ2 − 1 −1 . 1 − λ1 1
=
1 (λ2 − 1)(λ1 − 1)
=
1 λ2 − λ 2
161
SAS
−1
A A an+1 ak
k
!
0 −λ2
!
=
λ1 0
= S
−1
λ1 0
0 −λ2
= S
−1
λk1 0
0 −λk2 !
k
= vk A · = = =
1 0
!
!
=S
·S ·S
−1
λk1 0
0 −λk2
!
S·
1 0
!
! λ −1 1 2 (λ1 − 1)λk1 (λ2 − 1)λk2 λ2 − λ 1 1 −λ1 1 (λ1 − 1)λk1 (λ2 − 1) + (λ2 − 1)λk2 (1 − λ1 ) λ2 − λ 1 1 √ (−λk1 + λk2 ) − 5 √
√
( 1+2 5 )k − ( 1−2 5 )k λk1 − λk2 √ √ ⇒ ak = = 5 5 ! 1 1 21.27 Beispiel. A = 0 1 1−λ = det 0
PA (λ)
= (1 − λ)2
1 1−λ
!
A hat nur Eigenwert λ1 = 1. Eigenvektoren: x ∈ Eig(A, ) ⇔ (A −
2 )x
=0⇔
⇒ Eig(A, 1) = {t · e1 |t ∈ R}.
! 0 1 x= 0 0
0 0
!
⇔ x2 = 0
Also ist A ist nicht diagonalisierbar! Frage: Welche Matrizen sind diagonalisierbar? Wir wissen bereits: Sei A ∈ M (n × n; k), dann gilt: a) Hat A n paarweise verschiedene Eigenwerte, so ist A diagonalisierbar. b) Ist A diagonalisierbar, so ist
PA (λ) = det
λ1 − λ
0 ..
.
0
d.h. PA zerf¨ allt in Linearfaktoren.
λn − λ
= (λ1 − λ) · · · (λ2 − λ),
162
Kapitel 21. Eigenwerte
21.28 Definition. Zerf¨ allt das charakteristische Polynom von A ∈ M (n × n, k) in Linearfaktoren PA (λ) = (λ1 − λ) · · · (λn − λ), so heißt f¨ ur jeden Eigenwert v von A die Zahl #{j ∈ {1, . . . , n}|λj = v} =: µalg (A, v) algebraische Vielfachheit des Eigenwertes v von A. 21.29 Bemerkung. Algebraische und geometrische Vielfachheit eines Eigenwertes einer Matrix brauchen nicht u ¨bereinzustimmen. ! 1 1 21.30 Beispiel. A = ; PA (λ) = (1 − λ)2 ; µalg (A, 1) = 2; µgeo (A, 1) = 1. 0 1 21.31 Lemma. Sei A ∈ M (n × n, K), sei λ Eigenwert von A. Dann gilt: 1 ≤ µgeo (A, λ) ≤ µalg (A, λ) Beweis: Sei (v1 , . . . , vk ) eine Basis von Eig(A, λ), k = µgeo (A, λ). Erg¨ anze diese zu einer Basis B = (v1 , . . . , vk , vk+1 , . . . , vn ) von K n . F¨ ur S −1 = (v1 , . . . , vn ) gilt v .. . C −1 SAS = v 0 D Daraus folgt nun mit PA (λ) = PSAS −1 (λ), dass v−λ .. . det(A − λ · n ) = det v−λ 0 =
k
(v − λ) · det(D − λ ·
2
C D−λ·
n−k ).
n−k
⇒ µalg (A, v) ≥ k = µgeo (A, v) 21.32 Satz. Sei A ∈ M (n × n, K). Dann sind ¨aquivalent: (i) A ist diagonalisierbar. (ii) PA zerf¨allt in Linearfaktoren und µalg (A, v) = µgeo (A, v) f¨ ur alle Eigenwerte v von A. Beweis: Sei A ∈ M (n × n, K). Wende Satz 21.35 (siehe unten) auf ϕ : K n → K n definiert durch ϕ(x) := A · x f¨ ur x ∈ K n an. 2 ! cos θ − sin θ 21.33 Beispiel. Sei A = M (Rθ ) = , K = R. Dann ist sin θ cos θ PA (λ) = (cos θ − λ)2 + (sin θ)2 = 1 − 2 cos θ · λ + λ2 . F¨ ur θ 6= π · n, n ∈ Z, ist PA (λ) > 0 f¨ ur alle λ ∈ R, d.h. f¨ ur solche θ besitzt PA keine Nullstellen; insbesondere zerf¨ allt PA nicht in Linearfaktoren. F¨ ur solche θ ist A also nicht diagonalisierbar. ! 1 1 21.34 Beispiel. A = 0 1 PA (λ) = (1 − λ)2 zerf¨ allt in Linearfaktoren, aber µgeo (a, 1) < µalg (A, 1) ⇒ A nicht diagonalisierbar.
163 21.35 Satz. Sei V n-dimensionaler Vektorraum, n ∈ N und sei ϕ : V → V Endomorphismus. Seien λ1 , . . . , λN die paarweise verschiedene Eigenwerte von ϕ. Es sind ¨aquivalent: (i) ϕ ist diagonalisierbar. (ii) Pϕ zerf¨allt in Linearfaktoren und µgeo (ϕ, λ) = µalg (ϕ, λ) f¨ ur alle Eigenwerte λ von ϕ. (iii) µgeo (ϕ, λ1 ) + . . . + µgeo (ϕ, λN ) = n (iv) V = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λN ), d.h. jedes v ∈ V schreibt sich eindeutig in der Form v = v1 + . . . + vN mit vi ∈ Eig(ϕ, λi ). Beweis:
(i) ⇒ (ii):
Sei ϕ diagonalisierbar. Sei v1 , . . . , vn Basis aus Eigenvektoren von ϕ. Ordne die Basis so an, dass v1 , . . . , vk1 Eigenvektoren zu λ1 sind, vk1 +1 , . . . , vk1 +k2 Eigenvektoren zu λ2 sind, usw. Dann ist λ1 .. . λ1 0 λ2 .. . B MB (ϕ) = λ 2 . .. 0 λN .. . λN Das charakteristische Polynom Pϕ (λ)
= PMBB (ϕ) (λ) = λ1 − λ = det = (λ1 − λ)
k1
..
. λ1 − λ
0 λ2 − λ
..
. λ2 − λ
. λN − λ
0
. . . (λN − λ)
..
kN
..
. λN − λ
164
Kapitel 21. Eigenwerte
zerf¨ allt in Linearfaktoren. Setze kj = µalg (ϕ, λ1 ). Die Vektoren v(k1 +...+kj−1 +1) , . . . , v(k1 +...+kj−1 +kj ) sind kj linear unabh¨ angige Eigenvektoren zu λj ⇒ µgeo (ϕ, λj ) ≥ kj = µalg (ϕ, λj ). Wir hatten bereits gezeigt, dass stets gilt µgeo (ϕ, λj ) ≤ µalg (ϕ, λj ). Somit folgt µgeo (ϕ, λj ) = µalg (ϕ, λj ). (ii) ⇒ (iii): Nun zerfalle Pϕ (λ) in Linearfaktoren, d.h. Pϕ (λ) = (λ1 −λ)µalg (ϕ,λ1 ) ·. . .·(λN −λ)µalg (ϕ,λN ) , und es gelte µgeo (ϕ, λ) = µalg (ϕ, λ) f¨ ur alle Eigenvektoren von ϕ. Offenbar ist µgeo (ϕ, λ1 )+. . .+µgeo (ϕ, λN ) = µalg (ϕ, λ1 )+. . .+µalg (ϕ, λN ) = grad (Pϕ (λ)) = n. (iii)⇒ (iv): Setze W := Eig(ϕ, λ1 ) + . . . + Eig(ϕ, λN ) Zwischenbehauptung: W = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λN ) Beweis: Sei w = w1 + . . . + wN 0 = w10 + . . . + wN 0 mit wj , wj ∈ Eig(ϕ, λj ). Zu zeigen: wj = wj0 . 0 Aus 0 = (w1 − w10 ) + . . . + (wN − wN ) folgt wie in Bemerkung 21.13 e), dass w1 − | {z } | {z } Eig(ϕ,λ1 )
Eig(ϕ,λN )
0 w10 = 0, . . . , wN − wN = 0. Nun ist W ⊂ V , so dass aus
dim W
X
= dim Eig(ϕ, λ1 ) + . . . + dim Eig(ϕ, λN ) = µgeo (ϕ, λ1 ) + . . . + µgeo (ϕ, λN ) = µalg (ϕ, λ1 ) + . . . + µalg (ϕ, λN ) = n = dim V
schließlich folgt W = V . (iv) ⇒ (i): Sei V = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λN ). W¨ ahle Basen v1 , . . . , vk1 von Eig(ϕ, λ1 ), vk1 +1 , . . . , vk1 +k2 von Eig(ϕ, λ2 ) usw. Dann ist B := (v1 , . . . , vn ) eine Basis von V bestehend aus Eigenvektoren von ϕ. 2 Frage. Gegeben seien Endomorphismen ϕ, ψ : V → V. Wann kann man sie simultan diagonalisieren, d.h. wann existiert eine Basis B von V , so dass MBB (ϕ) und MBB (ψ) beide Diagonalmatrizen sind? 21.36 Lemma. Sei ϕ : V → V diagonalisierbarer Endomorphismus und V ein n-dimensionaler K-Vektorraum. Sei W ⊂ V ein Untervektorraum mit ϕ(W ) ⊂ W . Dann ist ϕ|W : W → W diagonalisierbar. 21.37 Definition. Ein Untervektorraum W ⊂ V mit ϕ(W ) ⊂ W heißt ϕinvarianter Untervektorraum.
165 21.38 Beispiel. W = V, W = {0}, W = Eig(ϕ, λ) sind ϕ-invariante Untervektorr¨ aume. ~ Die Summe invarianter Untervektorr¨ aume ist invariant. W = W1 + W2 ist ϕ-invariant, falls die Wi ϕ-invariant sind. F¨ ur w1 + w2 = w, wi = Wi gilt ϕ(w) = ϕ(w1 ) + ϕ(w2 ) ∈ W1 + W2 | {z } | {z } ∈W1
∈W2
~ Der Durchschnitt invarianter Untervektorr¨ aume ist invariant. W = W1 ∩ W2 ist ϕ-invariant, falls die Wi ϕ-invariant sind.
F¨ ur w ∈ W gilt: w ∈ Wi ; nach Definition von W . Nach Voraussetzung also: ϕ(w) ∈ Wi =⇒ ϕ(w) ∈ W1 ∩ W2
Beweis: Wir beweisen das Lemma 21.36 durch Induktion nach dim(W ) = k. I.A.: F¨ ur k = 1 ist die Aussage klar. I.V.: Sei die Behauptung nun f¨ ur dim(W ) < k gezeigt. I.S.: Z.z.: Die Aussage stimmt auch f¨ ur dim(W ) = k. W¨ ahle eine Basis A = {a1 , . . . , ak } von W und erg¨ anze diese zu einer Basis B = {a1 , . . . , ak , vk+1 , . . . , vn } von V . Setze A = MA (ϕ|W ), dann hat MB (ϕ) die Form ! A ∗ MB (ϕ) = 0 B mit einer Matrix B ∈ Mat(n − k × n − k, K). Daran liest man ab, dass Pϕ (t) = Pϕ|W (t) · det(B − t · n−k ). Da ϕ diagonalisierbar ist, folgt hieraus, dass ϕ|W genau k Eigenwerte mit ϕ gemeinsam hat. Seien λ1 , . . . , λN die paarweise verschiedenen Eigenwerte von ϕ. Ohne Einschr¨ ankung sei λ1 ein Eigenwert von ϕ|W . Setze ψ := ϕ − λ1 · id. Nach obigem Beispiel ist ker(ψ| W ) = Eig(ϕ, λ1 ) ∩ W als Durchschnitt ϕ-invarianter Untervektorr¨ aume ϕ-invariant. Behauptung: im(ψ|W ) ist ϕ-invariant. Beweis: Sei w ∈ im(ψ| W ). Sei u ∈ W mit w = ψ|W (u) = ψ(u). Setze w 0 = ϕ(u) ∈ W . Dann gilt ϕ(w)
= ϕ(ψ(u)) = ϕ(ϕ(u) − λ1 u) = ϕ(w0 ) − λ1 w0 = ψ|W (w0 ) ∈ im(ψ|W ),
womit die Behauptung gezeigt ist. Behauptung: W = ker(ψ| W ) ⊕ im(ψ|W ) Beweis: Wegen der Dimensionsformel gen¨ ugt es ker(ψ|W )∩im(ψ|W ) = {0} zu zeigen. Wir zeigen sogar ker(ψ) ∩ im(ψ) = {0}. Sei also v ∈ ker(ψ) ∩ im(ψ) = {0}. Sei u ∈ V mit ψ(u) = v. Schreibe u = u1 + u2 + · · · + uN mit ui ∈ Eig(ϕ, λi ). Es ist v
= ψ(u) = ψ(u2 ) + · · · + ψ(uN ) = (λ2 − λ1 ) · u2 + · · · + (λN − λ1 ) · uN
0 = ψ(v) = (λ2 − λ1 )2 · u2 + · · · + (λN − λ1 )2 · uN .
und somit
166
Kapitel 21. Eigenwerte
Da V = Eig(ϕ, λ1 ) ⊕ Eig(ϕ, λ2 ⊕ · · · ⊕ Eig(ϕ, λN ) folgt (λi − λ1 )2 · ui = 0, ∀i ≥ 2 und daraus wegen λi 6= λ1 f¨ ur i ≥ 2 ui = 0, ∀i ≥ 2 =⇒ u = u1 =⇒ v = ψ(u) = ψ(u1 ) = 0 =⇒ Behauptung. Da ker(ψ|W ) 6= {0} ist dim(im(ψ| W )) < k. Nach Induktionsvoraussetzung gibt es eine Basis von im(ψ| W ) bestehend aus Eigenvektoren von ϕ. Zusammen mit einer Basis von ker(ψ| W ) ergibt dies eine Basis von W bestehend aus Eigenvektoren von ϕ, d.h. ϕ|W : W → W ist diagonalisierbar. 2 21.39 Satz. Sei V ein endlich-dimensionaler Vektorraum, dim V = n, seien ϕ, ψ : V → V diagonalisierbare Endomorphismen.. Es sind ¨aquivalent: i) ϕ und ψ sind simultan diagonalisierbar. ii) ϕ und ψ kommutieren, d.h. ϕ ◦ ψ = ψ ◦ ϕ. Beweis:
i) ⇒ ii):
Sei B eine Basis von V , so dass MBB (ϕ), MBB (ψ) Diagonalmatrizen sind. MBB (ϕ ◦ ψ) = MBB (ϕ) · MBB (ψ) = MBB (ψ) · MBB (ϕ) = MBB (ψ ◦ ϕ)
⇒ ϕ ◦ ψ = ψ ◦ ϕ. ii) ⇒ i): Da ϕ diagonalisierbar ist, zerlegt sich V in Eigenr¨ aume V = Eig(ϕ, λ1 ) ⊕ · · · ⊕ Eig(ϕ, λN ) Behauptung: W := Eig(ϕ, λk ) ist ψ-invarianter Untervektorraum von V . Beweis: Sei v ∈ Eig(ϕ, λk ). Dann gilt ϕ(ψ(v)) = ψ(ϕ(v)) = ψ(λk · v) = λk · ψ(v) ⇒ ψ(v) ∈ Eig(ϕ, λk ) Lemma 21.36 ⇒ ψ|W : W → W ist diagonalisierbar mit W = Eig(ϕ, λk ). W¨ ahle eine Basis von v1 , . . . , vk1 von Eig(ϕ, λ1 ) bestehend aus Eigenvektoren von ψ. W¨ ahle eine Basis vk1 +1 , . . . , kk1 +k2 von Eig(ϕ, λ2 ) bestehend aus Eigenvektoren von ψ usw. Dann bilden (v1 , . . . , vn ) eine Basis von V bestehend aus Eigenvektoren von ψ und ϕ. 2 21.40 Definition. Ist ϕ : V → V ein Endomorphismus, dann nennen wir eine Basis von V , die nur aus Eigenvektoren von ϕ besteht, eine Eigenbasis von V f¨ ur ϕ. 21.41 Bemerkung. Sei dim V = n < ∞. Der Endomorphismus ϕ : V → V habe n paarweise verschiedene Eigenwerte. Dann ist ϕ insbesondere diagonalisierbar. Falls ϕ und ψ kommutieren und ψ diagonalisierbar ist, dann ist jede Eigenbasis f¨ ur ϕ auch eine Eigenbasis f¨ ur ψ.
167
21.42 Beispiel. Sei A =
1
0 ..
.
∈ M (n × n; R) und B diagonalisierbar und
0 n es gelte A · B = B · A. Die Standardbasis e1 , . . . , en ist Eigenbasis f¨ ur A, also auch f¨ ur B, d.h. B ist eine Diagonalmatrix. Es sind also genau die Diagonalmatrizen, die mit A kommutieren. λ 0 .. . Dann kommutiert jedes beliebige B ∈ 21.43 Beispiel. Sei A = . 0 λ M (n × n, R) mit A, denn A·B =λ·
n
· B = B(λ ·
n)
=B·A
168
Kapitel 21. Eigenwerte
Kapitel 22
Ringe 22.1 Definition. Ein Tripel (R, +, ·), wobei R eine nicht leere Menge ist mit zwei Verkn¨ upfungen + : R × R → R, (a, b) 7−→ a + b, · : R × R → R, (a, b) 7−→ a · b, heißt Ring, falls gilt: (R1) (R, +) ist abelsche Gruppe. (R2) Die Multiplikation ist assotiativ, d.h. ∀a, b, c ∈ R: (a · b) · c = a · (b · c) (R3) Es gelten die Distributivgesetze, d.h. ∀a, b, c ∈ R : a · (b + c) = a · b + a · c (a + b) · c = a · c + b · c Ein Element 1 ∈ R heißt Einselement, falls a · 1 = 1 · a = a ∀a ∈ R (R, +, ·) heißt ein kommutativer Ring, falls ferner gilt a · b = b · a ∀a, b ∈ R 22.2 Beispiel. Alle K¨ orper sind kommutative Ringe mit Einselement. 22.3 Beispiel. (Z, +, ·) ist kommutativer Ring mit Einselement, aber kein K¨ orper. 22.4 Beispiel. Sei K ein K¨ orper. Dann ist M (n × n; K) ein Ring bzgl. komponentenweiser Addition und Matrixmultiplikation. n ist Einselement. F¨ ur n ≥ 2 ist M (n × n; K) nicht kommutativ: ! ! 0 0 1 1 , kommutieren nicht. 0 1 0 1
0 0 0 1
0 1
0
..
. 1
,
1 1 0 1
0 1
0
..
. 1
kommutieren nicht.
170
Kapitel 22. Ringe
Sofern aus dem Kontext klar ist, welches die Verkn¨ upfungen + und · sind, werden wir statt (R, +, ·) etwas lax einfach R f¨ ur den Ring schreiben. 22.5 Lemma. Sei R ein Ring. Dann gilt ∀a, b ∈ R: i) 0 · a = a · 0 = 0 ii) a · (−b) = −(a · b) = (−a) · b iii) a · (b − c) = a · b − a · c (a − b) · c = a · c − b · c iv) R hat h¨ochstens ein Einselement. Beweis: i) 0 · a = (0 + 0) · a = 0 · a + 0 · a ⇒ 0 · a = 0 ii) a · (−b) + (a · b) = a · (−b + b) = a · 0 = 0 ⇒ a · (−b) = −(a · b) (ii)
iii) a · (b − c) = a · (b + (−c))) = a · b + a · (−c) = a · b − a · c iv) Seien 1 und 10 Einselemente von R. Dann ist 1 = 1 · 10 = 10 . 2 Achtung. Ringe brauchen nicht nullteilerfrei zu sein! ! ! ! 0 0 0 0 1 0 . Hier ergibt also das Produkt 0 obwohl = · 22.6 Beispiel. 0 0 0 1 0 0 die beiden Faktoren ungleich 0 sind. 22.7 Satz. Sei R ein kommutativer, nullteilerfreier Ring mit Einselement 1 6= 0. Falls R nur endlich viele Elemente hat, so ist R ein K¨orper. Beweis: Zu zeigen: ∀a ∈ R, a 6= 0, ∃a−1 ∈ R, so dass a · a−1 (= a−1 · a) = 1. ∗ Setze R := R − {0}. Fixiere a ∈ R∗ . Zu x ∈ R∗ ist a · x ∈ R∗ , da R nullteilerfrei. Wir erhalten eine Abbildung la : R∗ → R∗ , x 7−→ a · x. Suche ein Element x = a−1 , so dass la (x) = 1. Dazu reicht es zu zeigen, dass la surjektiv ist. Da R und damit auch R∗ endlich ist, reicht es zu zeigen, dass la injektiv ist. Seien dazu x, x0 ∈ R mit la (x) = la (x0 ), d.h. a · x = a · x0 . Hieraus folgt 0 = a · x − a · x0 = a(x − x0 ), a 6= 0, R nullteilerfrei ⇒ x − x0 = 0 ⇒ x = x0 . 2 22.8 Notation. Sei R ein Ring mit Einselement 1. Zu n ∈ N und a ∈ R setze n · a := a . . + a} ∈ R. | + .{z n−mal
22.9 Definition. Sei R ein Ring mit Einselement 1R . Dann heißt ( min{n ≥ 1|n · 1R = 0}, falls endlich char(R) := 0, sonst Charakteristik des Rings. 22.10 Beispiel. char(Z) char(Q) char(F2 )
= 0 = 0 = = 2.
char(R)
=
char(C)
171 22.11 Bemerkung. Ist R ein nullteilerfreier Ring mit Einselement (z.B. ein K¨ orper), so ist char(R) entweder 0 oder eine Primzahl. Denn: Sei char(R) = m 6= 0. Angenommen m ist keine Primzahl, d.h. m = k · l mit k, l ∈ N und 1 < k, l < m. Dann ist 0 = m · 1 = k · l · 1 = (k · 1)(l · 1). Dies ist ein Widerspruch zur Nullteilerfreiheit von R. 22.12 Definition. Sei R ein Ring. Eine Teilmenge S ⊂ R heißt Unterring, falls gilt: UR1) S ist eine Untergruppe von (R, +), UR2) a · b ∈ S f¨ ur alle a, b ∈ S. 22.13 Definition. Sei R ein Ring. Dann heißt eine Teilmenge I ⊂ R Linksideal (bzw. Rechtsideal), falls gilt: I1) I ist eine Untergruppe von (R, +), I2) ∀r ∈ R, a ∈ I : r · a ∈ I (bzw. a · r ∈ I). I heißt ein (beidseitiges) Ideal, falls es Links- und Rechtsideal ist. 22.14 Bemerkung. Ist R ein kommutativer Ring, so ist jedes Linksideal auch Rechtsideal und somit ein Ideal. 22.15 Beispiel. Sei R ein Ring. Dann hat man stets die ‘trivialen’ Ideale I = {0} und I = R. 22.16 Beispiel. Sei R ein kommutativer Ring und a ∈ R fest gew¨ ahlt. Dann ist I := Ia := {a · b | b ∈ R} =: a · R ein Ideal von R. Offenbar ist Ia 6= ∅, d.h. (UG1) der Untergruppenenaxiome ist erf¨ ullt. Zu I1): Z.z: c1 , c2 ∈ Ia =⇒ c1 − c2 ∈ Ia . Man u aquivalent dazu ist, (UG2) ¨berlege sich, dass dies ¨ und (UG3) zu zeigen (leicht!). Seien c1 , c2 ∈ Ia . Schreibe ci = a · bi mit bi ∈ R. Dann ist c1 − c2 = a · b1 − a · b2 = a · (b1 − b2 ) ∈ Ia . Zu I2): Da R kommutativ ist, brauchen wir nur zeigen, dass Ia ein Rechtsideal ist, d.h. invariant unter Multiplikation mit Elementen aus R von rechts. Sei also c ∈ Ia und r ∈ R. Schreibe c = a · b, b ∈ R. Aus der Assoziativit¨ at von R folgt unmittelbar c · r = (a · b) · r = a · (b · r) ∈ Ia . z.B. R = Z, m ∈ Z, m ≥ 2. I = m · Z. ˜ ein kommutativer Ring und X eine Menge. 22.17 Beispiel. Sei R ˜ Setze R = Abb(X, R). Dann ist R kommutativer Ring, wobei f¨ ur f, g ∈ R Addition und Multiplikation punktweise definiert ist, d.h. f¨ ur alle x ∈ X ist (f + g)(x) := f (x) + g(x) und (f · g)(x) := f (x) · g(x). Dadurch wird R zu einem kommutativen Ring, z.B. gilt f¨ ur die Addition (f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x), ∀x ∈ X ⇒ f + g = g + f. Fixiere x0 ∈ X und setze I := {f ∈ R|f (x0 ) = 0} ist ein Ideal in R.
172
Kapitel 22. Ringe
22.18 Bemerkung. Wir wollen nun aus einem gegebenen kommutativen Ring R und einem Ideal I ⊂ R einen neuen Ring basteln, den so genannten Restklassenbzw. Quotientenring. Sei I ⊂ R ein Ideal. Definiere eine Relation ∼ auf R durch a ∼ b :⇔ (a − b) ∈ I. ¨ Dies definiert eine Aquivalenzrelation, denn es gilt: a ∼ a, da a − a = 0 ∈ I a ∼ b ⇒ a − b ∈ I ⇒ b − a = −(a − b) ∈ I ⇒ b ∼ a a ∼ b, b ∼ c ⇒ (a − b) ∈ I, (b − c) ∈ I
⇒ (a − b) + (b − c) = (a − c) ∈ I ⇒ a∼c
¨ Setze nun R/I := R/ ∼:= {Aquivalenzklassen}. Definiere f¨ ur a, b ∈ R : [a] + [b] := [a + b] [a] · [b] := [a · b] Ist das wohldefiniert? Sei [a] = [a0 ] und [b] = [b0 ]. Z. z.: [a0 + b0 ] = [a + b] [a0 · b0 ] = [a · b] [a0 + b0 ] = [a + b − a − b + a0 + b0 ] = [a + b + (a0 − a) + (b0 − b)] = [a + b] | {z } | {z } |
∈I
{z
∈I
∈I
}
[a0 · b0 ] = [a · b − a · b + a0 · b0 + a · b0 − a · b0 ]
= [a · b + a · (b0 − b) + b0 (a0 − a)] = [a · b] | {z } | {z } |
|
∈I
{z
∈I
}
{z
∈I
|
∈I
{z
∈I
}
}
Also sind die Verkn¨ upfungen auf R/I wohldefiniert und (R/I, +, ·) ist ein kommutativer Ring. Die G¨ ultigkeit des Distributivgesetzes rechnet man z.B. so nach: [a] · ([b] + [c]) = [a] · [b + c] = [a · (b + c)] = [a · b + a · c] = [a · b] + [a · c] = [a] · [b] + [a] · [c] Das Nullelement von R/I ist [0] = I. Falls R ein Einselement 1 hat, so auch R/I, n¨ amlich [1]. 22.19 Definition. Sei R ein kommutativer Ring und I ⊂ R ein Ideal. Dann heißt R/I := {[a] | a ∈ R} Restklassenring bzw. Quotientenring modulo I. Statt a ∼ b schreibt man auch a ≡ b mod I und liest: a kongruent b modulo I.
173 22.20 Beispiel. R = Z, I = m · Z f¨ ur festes m ≥ 2. Dann ist R/I = Z/m · Z = {[0], [1], . . . , [m − 1]} und char(Z/m · Z) = m. Ist m nicht prim, so ist Z/mZ nicht nullteilerfrei. Ist dagegen m eine Primzahl, so ist Z/mZ nullteilerfrei, denn [0] = [k] · [l] = [k · l] ⇒ k · l = k · l − 0 ∈ mZ, d.h. k · l ist durch m teilbar. ⇒ k durch m teilbar oder l durch m teilbar ⇒ [k] = 0 oder [l] = 0. Ist m prim, so ist Z/mZ ein endlicher, kommutativer, nullteilerfreier Ring mit Einselement, also ein K¨ orper. 22.21 Definition. Seien R1 , R2 Ringe. Dann heißt eine Abbildung ϕ : R1 → R2 Ringhomomorphismus, falls f¨ ur alle a, b ∈ R1 gilt: ϕ(a + b) = ϕ(a) + ϕ(b) ϕ(a · b) = ϕ(a) · ϕ(b)
22.22 Bemerkung. Ist ϕ : R1 → R2 ein Ringhomomorphismus, so gilt ϕ(0) = 0 und ϕ(−a) = −ϕ(a) ∀a ∈ R1 . Denn: ϕ(0) = ϕ(0 + 0) = ϕ(0) + ϕ(0) ⇒ ϕ(0) = 0. F¨ ur a ∈ R1 ist ϕ(−a) + ϕ(a) = ϕ(−a + a) = ϕ(0) = 0 ⇒ ϕ(−a) = −ϕ(a). Achtung! Falls R1 und R2 Einselemente haben, so braucht nicht ϕ(1) = 1 zu gelten. 22.23 Beispiel. R1 = R2 = Z ϕ : Z → Z, ϕ(u) = 0,
∀u ∈ Z
Allerdings: Ist ϕ ein surjektiver Ringhomomorphismus, dann gilt ϕ(1) = 1. Denn: ϕ surjektiv ⇒ ∃a ∈ R1 : ϕ(a) = 1 ⇒ 1 = ϕ(a) = ϕ(1 · a) = ϕ(1) · ϕ(a) = ϕ(1) · 1 = ϕ(1) 22.24 Definition. Sei ϕ : R1 → R2 Ringhomomorphismus, dann heißt ker(ϕ) := {a ∈ R1 |ϕ(a) = 0} Kern von ϕ. 22.25 Bemerkung. Sei R ein kommutativer Ring und I ⊂ R eine Teilmenge. Dann sind ¨ aquivalent: a) I ist ein Ideal. b) Es gibt einen Ring R0 und einen Ringhomomorphismus ϕ : R → R0 mit ker(ϕ) = I.
174
Kapitel 22. Ringe
Beweis: 2) ⇒ 1): Sei also I = ker(ϕ). ϕ(0) = 0 ⇒ 0 ∈ ker(ϕ), d.h. I ist nicht leer. Wir m¨ ussen zeigen, dass die Differenz zweier Elemente aus I wieder in I enthalten ist; f¨ ur a, b ∈ R gilt: a, b ∈ ker(ϕ) ⇒ ϕ(a) = ϕ(b) = 0 ⇒ ϕ(a − b) = ϕ(a + (−b)) = ϕ(a) + ϕ(−b) = ϕ(a) − ϕ(b) = 0 − 0 = 0 ⇒ a − b ∈ ker ϕ. Wir m¨ ussen noch zeigen, dass I invariant ist unter Rechtsmultiplikation mit Elementen aus R: Sei also a ∈ ker(ϕ) und r ∈ R, dann ist ϕ(a · r) = ϕ(a) · ϕ(r) = 0 ϕ(r) = 0 ⇒ a · r ∈ ker(ϕ). 1) ⇒ 2): Sei I ⊂ R ein Ideal. Setze R0 := R/I. Definiere ϕ : R → R0 durch ϕ(a) = [a] ∀a ∈ R ϕ(a + b) = [a + b] = [a] + [b] = ϕ(a) + ϕ(b) ϕ(a · b) = [a · b] = [a] · [b] = ϕ(a) · ϕ(b) ⇒ ϕ : R → R0 ist ein Ringhomomorphismus. Der Kern ist ker(ϕ)
= {a ∈ R | ϕ(a) = [0]} = {a ∈ R | [a] = [0]} = {a ∈ R | a − 0 ∈ I} = I.
2 22.26 Definition. Ein bijektiver Ringhomomorphismus heißt Ringisomorphismus. Zwei Ringe R1 und R2 heißen isomorph, falls es einen Ringisomorphismus ϕ : R1 → R2 gibt. 22.27 Bemerkung. Ist ϕ : R1 → R2 Ringisomorphismus, so ist ϕ−1 : R2 → R1 ebenfalls ein Ringisomorphismus. Denn: ϕ(ϕ−1 (a + b)) = a + b = ϕ(ϕ−1 (a)) + ϕ(ϕ−1 (b)) = ϕ(ϕ−1 (a) + ϕ−1 (b)) ⇒ ϕ−1 (a + b) = ϕ−1 (a) + ϕ−1 (b) F¨ ur die Multiplikation geht man analog vor. 22.28 Beispiel. Z/2Z und F2 sind isomorph. Um dies zu sehen, definieren wir einen Ringisomorphismus ϕ : Z/2 · Z → F2
durch
ϕ([0]) ϕ([1])
= 0 F2 = 1 F2 .
Offensichtlich ist ϕ bijektiv. Die Homomorphismuseigenschaft, d.h. die Additivit¨ at und die Multiplikativit¨ at verifiziere man anhand der Definition von ϕ und der folgenden Tabellen: + [0] [1] [0] [0] [1] [1] [1] [0]
+ 0 1 0 0 1 1 1 0
· [0] [1] [0] [0] [0] [1] [0] [1]
· 0 1 0 0 0 1 0 1
175 ˜ ein kommutativer Ring. Setze R = Abb(X, R) ˜ 22.29 Beispiel. Sei X eine Menge, R und I = {f ∈ R|f (x0 ) = 0}. ˜ sind isomorph. Dazu definieren wir folgende Abbildung Dann sind R/I und R ˜ → R/I, r 7→ [constr ], ϕ:R
˜ die konstante Abbildung mit Wert r ist, d. h. constr (x) = wobei constr : X → R r, ∀x ∈ X. Wir verifizieren, dass ϕ tats¨ achlich ein Ringisomorphismus ist. Zur Additivit¨ at: ϕ(r + r0 ) = [constr+r0 ] = [constr + constr0 ] = [constr ] + [constr0 ] = ϕ(r) + ϕ(r0 ) ˜ zeigt man analog. Die Multiplikativit¨ at, d.h. ϕ(r · r0 ) = ϕ(r) · ϕ(r0 ), ∀r, r0 ∈ R, Zur Injektivit¨ at: ϕ(r) = ϕ(r0 ) ⇒ [constr ] = [constr0 ]
⇒ (constr − constr0 ) ∈ I ⇒ r − r0 = (constr − constr0 )(x0 ) = 0 ⇒ r = r0
Zur Surjektivit¨ at: [f ] = [constf (x0 ) −constf (x0 ) + f ] | {z } ∈I
= [constf (x0 ) ] = ϕ(f (x0 ))
22.30 Bemerkung. Folgendes ist leicht zu sehen: 1) Seien ϕ : R1 → R2 und ψ : R2 → R3 Ringhomomorphismen, so ist auch ψ ◦ ϕ : R1 → R3 ein Ringhomomorphismus. 2) Ein Ringhomomorphismus ϕ : R1 → R2 ist injektiv genau dann, wenn ker(ϕ) = {0}.
176
Kapitel 22. Ringe
Kapitel 23
Polynome 23.1 Definition. Sei K ein K¨ orper und seien x1 , . . . , xn Symbole. Ein formaler Ausdruck der Form X ai1 ...in · xi11 · . . . · xinn i1 ...in
mit ai1 ...in ∈ K heißt Polynom , falls die Koeffizienten ai1 ...in f¨ ur nur endlich viele (i1 , . . . , in ) ungleich 0 sind. Genauer sprechen wir von einem Polynom in den Ver¨ anderlichen x1 , . . . , xn mit Koeffizienten in K und bezeichnen die Menge all solcher mit K[x1 , x2 , . . . , xn ]. . 23.2 Beispiel. K = F2 f g
= x2 + x ∈ F2 [x] = 1 ∈ F2 [x]
h = x2 + y 2 + xy ∈ F2 [x, y] P 23.3 Definition. Ist f = ai1 ,...,in · xi11 · . . . · xinn , so heißt die Zahl ( −1, falls f = 0 grad(f ) := max{i1 + . . . + in | ai1 ...in 6=0 } sonst Grad von f . 23.4 Beispiel. K = F2 , grad (x2 + x) = 2 , grad (1) = 0 , grad (x2 + y 2 + xy) = 2. 23.5 Definition. Sind f, g ∈ K[x1 , . . . , xn ] und ist α ∈ K, so ist f¨ ur X f = ain ...in · xi11 . . . xinn , X g = bin ...in · xi1n . . . xinn durch
f +g
:=
a·f
:=
X
X
(ai1 ...in + bi1 ...in )xi1n . . . xinn α · ai1 ...in · xi1n . . . xinn .
eine Addition und skalare Multipliaktion erkl¨ art. Mit den so eingef¨ uhrten Verkn¨ upfungen wird K[x1 , . . . , xn ] ein K-Vektorraum. 23.6 Definition. Ein Polynom, dessen Koeffizienten alle bis auf einen verschwinden, und dessen einer identisch 1 ist, heißt Monom.
178
Kapitel 23. Polynome
23.7 Beispiel. K = F2 , f = x5 y 2 ∈ K[x, y] ist ein Monom, wohingegen g = x2 y 2 + x4 ∈ K[x, y] kein Monom ist. 23.8 Bemerkung. Die Teilmenge {Monome}⊂ K[x1 , . . . xn ] bildet eine Basis, da sich jedes Polynom eindeutig als Linearkombination von Monomen schreiben l¨ asst. Insbesondere ist dim K[x1 , . . . , xn ] = ∞. F¨ ur f =
P
P ain ...in xi11 . . . xinn und g = bj1 ...jn · xj11 . . . xjnn ist f · g definiert durch X X f ·g = ai1 ...in · bj1 ...jn xk11 . . . xknn
Dabei l¨ auft die Summe in der Klammer u ¨ber alle Multiindices (i1 , . . . , in ), (j1 , . . . , jn ), so dass i1 + j1 = k1 , . . . , in + jn = kn erf¨ ullt ist. Mit der Addition und Multiplikation von Polynomen ist K[x1 , . . . , xn ] ein kommutativer Ring mit Einselement f = 1. 23.9 Beispiel. F2 [x, y]: (x2 y 2 + x4 ) · (x2 y 2 + y 4 ) = x4 y 4 + x2 y 6 + x6 y 2 + x4 y 4 = x2 y 6 + x6 y 2 . 23.10 Lemma. Seien f, g ∈ K[x1 , . . . , xn ] − {0}, so gilt grad(f · g) = grad(f ) + grad(g). Insbesondere ist K[x1 , . . . , xn ] nullteilerfrei. Beweis:
Es gilt sicherlich grad(f · g) ≤ grad(f ) + grad(g)
Wir definieren eine lineare Ordnung auf der Menge aller Multiindices gleicher L¨ ange wie folgt: Nenne f¨ ur (i1 , . . . , in ) ∈ Nn und (j1 , . . . , jn ) ∈ Nn (i1 , . . . , in ) < (j1 , . . . , jn ), falls i1 + . . . + in < j1 + . . . + jn oder falls i1 + . . . + in = j1 + . . . + jn und i1 = j1 . . . iv = jv und iv+1 < jv+1 f¨ ur ein v ∈ {0, . . . , n − 1} gilt. (lexikographische Ordnung) Ist (i1 , . . . , in ) der maximale Multiindex, so dass ai1 ...in 6= 0 (insbesondere i1 + . . . + in = grad(f )) und (j1 , . . . , jn ) der maximale Multiindex, so dass bj1 ...jn 6= 0 (insbesondere j1 + . . . + jn = grad(g)), dann ist f¨ ur (k1 , . . . , kn ) = (i1 , . . . , in ) + (j1 , . . . , jn ) : X
ai0n ...i0n · bj10 ...jn0 = ai1 ...in · bj1 ...jn 6= 0, | {z } | {z } 6=0
6=0
wobei die Summe u ¨ber alle Multiindices geht mit i01 + j10 = k1 , . . . , i0n + jn0 = kn . ⇒ grad(f · g) ≥ k1 + . . . + kn
= i1 + . . . + i n + j1 + . . . + j n = grad(f ) + grad(g) 2
23.11 Satz. (Division mit Rest) Seien f, g ∈ K[x], g 6= 0. Dann existieren eindeutig bestimmte Polynome q, r ∈ K[x] mit f = q · g + r, wobei grad(r) < grad(g). Beweis: a) Eindeutigkeit:Seien q, q˜, r, r˜ ∈ K[x] und f = q · g + r = q˜ · g + r˜ und grad(r), grad(˜ r ) < grad(g). Dann ist 0 = (q − q˜)g + (r − r˜) ⇒ r˜ − r = (q − q˜)g
179 und somit grad(˜ r − r) < grad(g). W¨ are q 6= q˜, also q − q˜ 6= 0, so w¨ are grad(˜ r − r)
⇒ q = q˜ ⇒ r
= grad((q − q˜)g)grad(˜ r − r) = grad(q − q˜) + grad(g) ≥ grad(g)
= r˜
2) Existenz: Schreibe f = a n xn + . . . + a 0 g = b m xm + . . . + b 0 mit n = grad(f ) 6= 0 und m = grad(g) 6= 0. Ist n < m, so setze g := 0 und r = f . Ist n ≥ m, so setze q1 :=
an n−m x und f1 := f − q1 · g bm
Es gilt grad(f1 ) < grad(f ). Ist nun grad(f1 ) < grad(g), so setze q := q1 und r := f1 Ist immer noch grad(f1 ) ≥ grad(g), so wiederhole Schritt 1 mit f1 statt f und erhalte f2 und q2 . Wiederhole diese Schritte so oft bis grad(fn ) < grad(g) und setze dann r := fn und q := q1 + . . . + qn . Dann gilt: f
= f1 + g · q1
= (f2 + q2 · g) + q1 · g = f2 + (q1 + q2 ) · g .. . = fn + (q1 + . . . + qn ) · g = r+q·g 2
23.12 Beispiel. Sei K = R. f = 3x3 + 2x + 1, g = x2 − 4x. Dann ist (3x3 + 2x + 1) : (x2 − 4x) = 3x + 12 . | {z } q
23.13 Definition. Sei K ein K¨ orper. Der Auswertehomomorphismus K[x] −→ Abb(K, K), f 7−→ f˜
P P ˜ a j xj . aj λj , f¨ ur alle λ ∈ K, wobei f = ist gegeben durch f(λ) = j≥0
j≥0
23.14 Bemerkung. Der Auswertehomomorphismus ist ein Ringhomomorphismus, ¨ d.h. f] + g = f˜ + g˜, fg · g = f˜ · g˜ (Ubung) Achtung! Ist #K < ∞, so ist auch #Abb(K, K) endlich, aber #K[x] = ∞. Also ist ein Auswertehomomorphismus nicht injektiv!
180
Kapitel 23. Polynome
23.15 Beispiel. K = F2
f = x2 + x ∈ F2 [x]
f˜ = 12 + 1 = 0
f˜ = 02 + 0 = 0
f˜ = 0, obwohl f 6= 0
23.16 Lemma. Sei K ein K¨orper, sei f ∈ K[x]. Ist λ ∈ K eine Nullstelle von f˜, so existiert genau ein Polynom g ∈ K[x] mit f = (x − λ)g. Ferner gilt grad(g) = grad(f ) − 1. Beweis: dass
Polynomdivision mit Rest von f durch (x − λ) ergibt g, r ∈ K[x], so f = (x − λ)g + r und grad(r) < grad(x − λ) = 1
^ ⇒ Der Rest r ist eine Konstante r ∈ K und f˜ = (x − λ) · g˜ + r˜. Da λ eine Nullstelle g g ˜ g von f ist, folgt direkt0 = f (λ) = (λ · λ) · g(λ) + r˜(λ) = r und somit f = (x − λ)g. Also ist grad(f ) = grad(x − λ) + grad(g) = 1 + grad(g). 2 23.17 Korollar. Sei K ein beliebiger K¨orper, sei f ∈ K[x], f 6= 0. Hat f˜ k paarweise verschiedene Nullstellen, so ist k ≤ grad(f ). Beweis: Wir beweisen u ¨ber Induktion nach n = grad(f ). ur n = 0 ist f = a ∈ K − {0} ⇒ f˜ = consta ⇒ f˜ hat keine Nullstelle, d.h. I.A.: F¨ h = 0. I.V.: Die Aussage sei f¨ ur ein n − 1 ∈ N gezeigt. I.S.: Wir haben zu zeigen, dass die Aussage auch f¨ ur n stimmt. Hat f˜ keine Nullstelle, so ist k = 0 und die Aussage trivial. Ist dagegen λ eine Nullstelle von f , dann existiert g ∈ K[x] mit grad(g) = n − 1 und f = (x − λ) · g. Jede andere Nullstelle µ 6= λ von f˜ ist auch Nullstelle von g˜.Nach Induktionsvoraussetzung hat g˜ h¨ ochstens n − 1 verschiedene Nullstellen. ⇒ f˜ hat h¨ ochstens n verschiedene Nullstellen. 2 23.18 Korollar. Ist K ein K¨orper mit unendlich vielen Elementen, so ist der Auswertehomomorphimus: K[x] → Abb(K, K) injektiv.
Beweis: Z.z.: Der Kern des Auswertehomomorphismus ist {0}. W¨ are f˜ die ˜ Nullabbildung, aber f 6= 0, dann h¨ atte f unendlich viele Nullstellen. Dies ist ein Widerspruch zu Korollar 23.18. 2 23.19 Definition. Sei K ein beliebiger K¨ orper, f ∈ K[x], f 6= 0. F¨ ur λ ∈ K heißt µ(λ, f ) := max{r ∈ N|∃g ∈ K[x] mit f (x − λ)r · g} Vielfachheit der Nullstelle λ in f . 23.20 Bemerkung. 1) 0 ≤ µ(λ, f ) ≤ grad(f ) 2) F¨ ur f = (x − λ)µ(λ,f ) · g ist λ keine Nullstelle von g˜.
181 ˜ 3) µ(λ, f ) = 0 ⇔ λ ist nicht Nullstelle von f.
4) Sind λ1 , . . . , λk die paarweise verschiedenen Nullstellen von f˜ mit Vielfachheiten r1 , . . . , rk , so ist f = (x − λ1 )r1 · . . . · (x − λk )rk · g, wobei g ∈ K[x] ohne Nullstellen. Dabei sind λ1 , . . . , λk , r1 , . . . , rk und g bis auf Reihenfolge eindeutig bestimmt. 23.21 Beispiel. 1) Sei K = R und f = x5 − x4 + x3 − x2 ∈ R[x], dann gilt: f = (x − 0)2 (x − 1) · (x2 + 1). Hier ist λ1 = 0, r1 = 2, λ2 = 1, r2 = 1, g = x2 + 1. 2) Sei K = C und f = x5 − x4 + x3 − x2 ∈ C[x], dann gilt f = (x − 0)2 (x − 1)(x + i)(x − i). Hier ist λ1 = 0, r1 = 2, λ2 = 1, r2 = 1, λ3 = −i, r3 = 1, λ4 = i, r4 = 1, g = 1. 23.22 Definition. Sei K ein K¨ orper. Man sagt ein Polynom f ∈ K[x] zerf¨ allt in Linearfaktoren, falls es sich in der Form f = a(x − λ1 )r1 · . . . · (x − λn )rn mit a ∈ K schreiben l¨ asst. Dann heisst so ein Ausdruck Linearfaktorzerlegung von f. P 23.23 Bemerkung. f zerf¨ allt in Linearfaktoren ⇔ µ(λ, f ) = grad(f ). λ∈K
23.24 Bemerkung. Eine Zerlegung von f in Linearfaktoren ist, falls sie existiert, eindeutig bis auf die Reihenfolge der Faktoren. Wichtig: F¨ ur Endomorphismen ϕ : V → V eines endlich dimensionalen KVektorraumes V ist das charakteristische Polynom Pϕ ∈ K[x] definiert, n¨ amlich durch Pϕ (x) = det(ϕ − x · id). 23.25 Beispiel. K = F2 , A, B ∈ M (3 × 3, F2 ) 1 0 0 1 0 0 A = 0 1 0 , B = 0 0 0 0 0 0 0 0 0 PA (x)
PB (x)
1−x = det 0 0 1−x = det 0 0 PA P˜A
0 1−x 0
0 0 = (1 − x)2 (−x) = x3 + x −x
0 0 −x 0 = (1 − x)(−x)2 = x3 + x2 0 −x 6= PB , aber = P˜B = 0
Die Vielfachheiten der Nullstellen sind die algebraischen Vielfachheiten der Eigenwerte. F¨ ur A, B gilt: A : λ1
= 0, µ(0, f ) = 1
λ2
= 1, µ(1, f ) = 2
B : λ1 λ2
= 0, µ(0, f ) = 1 = 1, µ(1, f ) = 1
182
Kapitel 23. Polynome
23.26 Satz (Fundamentalsatz der Algebra). Ist f ∈ C[x] mit grad(f ) ≥ 1, so besitzt f˜ mindestens eine Nullstelle. 23.27 Korollar. Jedes komplexe Polynom zerf¨allt in Linearfaktoren. Beweis: Schreibe f = (x − λ1 )r1 · · · (x − λn )n · g und g˜ ohne Nullstellen. Fundamentalsatz ⇒ g ist konstantes Polynom. 2 Zum Fundamentalsatz nun der Beweis: Angenommen f˜ h¨ atte keine Nullstelle. Schreibe f = an xn + . . . + a0 mit n = grad(f ) ≥ 1 und an 6= 0. a) Behauptung: Die Funktion C → R, z 7−→ |f˜(z)| nimmt auf C ihr Minimum an. Beweis: W¨ ahle R > 0 so groß, dass s |a0 | |an | |an−1 | 4|a0 | +... + n ≤ und R ≥ n R R 2 |an | Dann gilt ∀z mit |z| ≥ R : |f˜(z)| = |an z n + . . . + a1 z + a0 | a1 a0 = z n an + . . . + n−1 + n z z a0 a1 n = |z| an + . . . + n−1 + n z a z a1 a0 n−1 n ≥ |z| |an | − + . . . + n−1 + n z z z |an−1 | |a0 | n ≥ |z| |an | − +...+ n |z| |z | |an−1 | |a0 | ≥ Rn |an | − +...+ n R R |an | ≥ Rn |an | − 2 |an | ≥ 1|a0 | = Rn 2 ˜ ist Die Scheibe DR (0) = {z ∈ C| |z| ≤ R} ist kompakt und die Funktion |f| stetig. Daher nimmt |f˜| auf DR (0) ihr Minimum an, d.h. ∃z0 ∈ DR (0), so dass ˜ 0 )| ≤ |f˜(z)| ∀z ∈ DR (0). Insbesondere ist m := |f˜(z0 )| ≤ |f(0)| ˜ |f(z = |a0 |. Hieraus und aus dem ersten Teil folgt m = |f˜(z0 )| ≤ |f˜(z)| ∀z ∈ C. b) OBdA sei z0 = 0. Ansonsten betrachte g(z) = f (z + z0 ). Dann ist m = |f˜(0)| = |a0 | und (nach Voraussetzung) a0 6= 0. f˜ hat eine Nullstelle ⇔ a10 · f˜ hat eine Nullstelle. Also k¨ onnen wir OBdA a0 = 1 annehmen. n k Schreibe f = an x + . . . + ak x + 1 mit ak 6= 0 (1 ≤ k ≤ n). Es gilt nun −|ak | −|ak | ak = 1 ⇒ ∃ϕ ∈ [0, 2π) : ak = eiϕ = cos(ϕ) + i sin(ϕ)
F¨ ur z der Form z = reiϕ/k gilt ak z k
= −|ak |e−iϕ · rk · eiϕ
= −|ak | · rk < 0 f¨ ur r > 0.
183 Insbesondere sind solche ahle nun ein δ > 0 so klein, dass |ak |·δ k < 1 R. W¨ z∈ ak+1 an n−k 1 ur alle 0 ≤ r ≤ δ und z = reiϕ/k +. . .+ ak δ < 2 . Dann gilt f¨ und ak ·δ |f˜(z)| = |an z n + . . . + ak z k + 1| ≤ |an z n + . . . + ak+1 z k+1 | + |ak z k + 1| ak+1 k an n−k = |ak z | z z + 1 − |ak z k | +...+ ak ak ak+1 k an n−k +... + r + 1 − |ak |rk ≤ |ak |r r ak ak 1 ≤ |ak |rk · + 1 − |ak |rk 2 1 ˜ = 1 − |ak |rk < 1 = min |f| 2
Dies ist jedoch ein Widerspruch! 2 23.28 Bemerkung. Der Fundamentalsatz der Algebra sichert die Existenz (mindestens) einer Nullstelle eines gegebenen Polynoms vom Grad ≥ 1, gibt aber kein Verfahren zur Berechnung dieser Nullstelle(n). F¨ ur Polynome vom Grad 1, 2 und 3 leiten wir im folgenden explizite Formeln her: grad(f ) = 1: Zu f ∈ C[x], f = a1 x + a0 (a1 6= 0) ist − aa01 ist die einzige Nullstelle ˜ von f. grad(f ) = 2: Die Nullstellen von f ∈ C[x], f = a2 x2 + a1 x + a0 (a2 6= 0) lauten: p −a1 − a21 − 4a0 a2 λ1 = 2a p 2 −a1 + a21 − 4a0 a2 λ2 = 2a2 Zwei F¨ alle treten auf: 1) a21 − 4a0 a2 = 0. Dann gilt λ1 = λ2 , d.h. f˜ hat eine doppelte Nullstelle.
2) a21 − 4a0 a2 6= 0. Dann gilt λ1 6= λ2 , d.h. f˜ hat zwei einfache Nullstellen. √ 23.29 Bemerkung. Was ist die Wurzel z aus einer Komplexen Zahl z ∈ C? √ W¨ are w eine komplexe Zahl mit w = ( z), so h¨ atten wir zwei F¨ alle zu unterscheiden: Fall a): z = 0 ⇒ w = 0
Fall b): z 6= 0 ⇒ Die Gleichung w 2 = z Die Gleichung w2 = z besitzt nach dem Fundamentalsatz der Algebra √genau 2 L¨ osungen, ist n¨ amlich w0 eine L¨ osung, so ist −w0 die andere. Also p ist z nicht wohldefiniert. Hier aber sind λ und λ wohldefiniert, denn werden a21 − 4a0 a2 1 2 p 2 und − a1 − 4a0 a2 gegeneinander vertauscht, so kommen dieselben Nullstellen raus. Nun zum Grad 3.
grad(f ) = 3: Kubische Gleichungen. Sei f = a3 x3 +a2 x2 +a1 x+a0 ∈ C[x], (a3 6= 0). Wir substituieren: q2 y := x + 3a3
184
Kapitel 23. Polynome
⇒ f = a3 (y 3 + 3py + 2q) 3p = a1 − a222 a3 3a3 mit 3 2q = 2a23 − a1 a22 + 27a 3a 3
3
a0 a3
Setze D := p3 + q 2 (die Diskriminante von g := y 3 + 3py + 2q)
(Die Cardanische Formel): Setze A±
:=
B±
:=
q
√ D √ 1 (−1 ± i 3) 2 3
−q ±
Die Nullstellen von g sind: λ1 λ2 λ3
= A+ + A−
= A + B− + A − B+ = A + A− + A − B+
Wir zeigen nun, dass g = (y − λ1 )(y − λ2 )(y − λ3 )
Beweis:
(y − λ1 )(y − λ2 )(y − λ3 ) = (y − λ1 )(y 2 − (λ2 + λ3 )y + λ2 λ3 )
= y 3 − (λ1 + λ2 + λ3 )y 2 + (λ1 λ2 + λ1 λ3 + λ2 λ3 )y − λ1 λ2 λ3
Wir schreiben die λi nun aus q q √ √ 3 3 −q − D + −q + D, λ1 = q √ √ 13 λ2 = −q + D(−1 + i 3) + 2q √ √ 23 λ3 = −q + D(−1 − i 3) + 2
q √ √ 13 −q − D(−1 − i 3), 2q √ √ 13 −q − D(−1 + i 3), 2
und berechnen die oben auftretenden Summen und Produkte: q √ √ √ 1 1 3 λ1 + λ 2 + λ 3 = −q − D 1 − (1 + i 3) + (−1 + i 3) 2 2 q √ √ √ 1 1 3 + −q + D 1 + (−1 + i 3) + (−1 − i 3) 2 2 = 0 λ1 · λ2 λ1 · λ3 λ2 · λ3
q q √ √ √ √ 13 13 (q + D)2 (−1 − i 3) + (−q + D)2 (−1 + i 3) 2q 2q √ √ √ √ 13 13 2 = p+ (q + D) (−1 + i 3) + (−q + D)2 (−1 − i 3) 2 2 q q √ √ 3 3 2 = p + (−q + D) + (q + D)2 = p+
=⇒ λ1 λ2 + λ1 λ3 + λ2 λ3 = 3p
λ1 · λ2 · λ3 ⇒g
=
q 3
q √ √ 3 −q − D + −q + D
= −2q = (y − λ1 )(y − λ2 )(y − λ3 )
p+
q 3
q √ √ 3 2 (−q + D) + (−q + D)2
185 23.30 Beispiel. Sei f = x3 − 6x2 + 21x − 52 ein komplexes Polynom. 1) y = x − 2 ⇒ g = y 3 + 9y − 26 2) p = 3 q = −13 ⇒ D = p3 + q 2 − 27 + 169 = 196 = (14)2 √ A± = 3 13 ± 14 √ 3 ⇒ A+ = 27 = 3 √ A− = 3 −1 = −1 ⇒ λ1
= A+ + A− = 2
Die Nullstelle von f˜ lauten also: ˜1 λ ˜2 λ ˜3 λ
= λ1 + 2 − 4
√ = λ2 + 2 = 1 + 2i 3 √ = λ3 + 2 = 1 − 2i 3
23.31 Bemerkung. F¨ ur Polynome f ∈ C[x] vom grad(f ) = 4 kann man ¨ ahnliches zeigen, aber f¨ ur grad(f ) ≥ 5 gibt es keine Verfahren und keine geschlossene Formel, in der die Nullstellen alleine durch die Koeffizienten des Polynoms algebraisch ausgedr¨ uckt werden. (Nur Approximation durch numerische Verfahren.)
186
Kapitel 23. Polynome
Kapitel 24
Trigonalisierung Erinnerung: Ein Endomorphismus ϕ : V → V ist diagonalisierbar, falls es eine Basis von V bestehend aus Eigenvektoren von ϕ gibt. In einem endlich-dimensionalen Vektorraum ist dies ¨ aqivalent dazu, dass die darstellende Matrix bzgl. dieser Basis Diagonalgestalt hat. Diagonlisierbarkeit ist nicht immer gew¨ ahrleistet; wir kennen Kriterien, die uns angeben, wann dies der Fall ist. Weiter unten f¨ uhren wir die Trigonalisierbarkeit ein, ein Begriff, welcher den der Diagonalisierbarkeit verallgemeinert. Ein Endomorphismus u ¨ber C (allgemeiner: u ¨ber jedem algebraisch abgeschlossenen K¨ orper) wird sich stets als trigonalisierbar herausstellen und es wird ein konkretes Verfahren angegeben werden, wie man so eine Trigonalisierung erreicht. 24.1 Lemma. Ist W ⊂ V ein F -invarianter Untervektorraum, so ist PF |W ein Teiler von PF , d.h. ∃Q (Polynom), so dass PF = Q · PF |W .
Beweis: Sei {v1 , . . . , vm } = B 0 eine Basis von W . Erg¨ anze {v1 , . . . , vm } zu einer Basis B von V , dim(V ) =: n. Die darstellende Matrix und das charakteristische Polynom von F lauten: ! MB 0 (F |W ) ∗ MB (F ) = 0 A =⇒ PF
= det(MB (F ) − λ ·
n)
! MB 0 (F |W ) − λ · m ∗ = det . 0 A − λ · n−m ! B A ¨ (Ubungsaufgabe: Zeige, dass det = det(A) · det(C)) Daher ist PF = C det(MB (F |W ) − λ n ) · det(A − λ · n−m ) und somit PF |W · Q mit Q ∈ K[x]. 2 {z } | =:Q
24.2 Beispiel. Das Polynom (X n − 2) ∈ Q[x] (n ∈ N, n ≥ 2) hat keinen Teiler ¨ in Q[x]. (Ubungsaufgabe: Warum?) Der Endomorphismus F : V → V mit V = Qn und K := Q, dessen darstellende Matrix M (ϕ) bzgl. der Standardbasis durch 0 0 2 1 0 0 .. .. .. . . 0 . M (ϕ) = .. .. .. . . . .. .. .. . . . 0 1 0
188
Kapitel 24. Trigonalisierung
gegebene sei, hat keinen nichttrivialen F -invarinanten Untervektorraum. Denn es ist PF = (X n − 2) ∈ R[x], und mit Lemma 24.1 folgt dies sofort. 24.3 Bemerkung. Sei A ∈ M (n × n, K) eine obere Dreiecksmatrix, d.h. aij = 0 f¨ ur i > j. Die Untervektorr¨ aume Wr := span(e1 , . . . , er ), 1 ≤ r ≤ n, sind dann F invariant. Denn man sieht sofort: ∀r ∈ {1, . . . , n} ist F (er ) eine Linearkombination von e1 , . . . , er . (Man betrachte die r-te Spalte von A) 24.4 Definition. Sei F : V → V ein Endomorphismus und dim(V ) = n. 1) Eine Fahne V ist eine Kette von Untervektorr¨ aumen {0} =: V0 ⊂ V1 ⊂ . . . ⊂ Vn := V mit dim(Vr ) = r ∀r = 0, . . . n. 2) Eine Fahne von V heißt F -invariant ⇔ F (Vr ) ⊂ Vr
∀1 ≤ r ≤ n.
24.5 Bemerkung. Jede Basis von V liefert eine Fahne von V . Denn ist {v1 , . . . , vn } Basis von V , so setze Vr := spanK {v1 , . . . , vr }. Offenbar ist (Vr )1≤v≤n eine Fahne in V . 24.6 Proposition. Sei F ∈ End(V ) und dim(V ) = n. Dann sind ¨aquivalent: i) Es existiert eine F -invariante Fahne von V . ii) Es gibt eine Basis B von V , so dass MB (F ) eine obere Dreiecksmatrix ist. Beweis: i) ⇒ ii): Sei {0} = V0 ⊂ V1 ⊂ . . . ⊂ Vn = V eine F -invariante Fahne in V . Sei {v1 } Basis von V1 . Erg¨ anze {v1 } zu einer Basis von V2 . (V1 ⊂ V2 ) Verfahre induktiv so weiter: Erg¨ anze {v1 , . . . , vi } zu einer Basis {v1 , . . . , vi+1 } von Vi+1 usw. Die so erhaltene Basis B = {v1 , . . . , vn } erf¨ ullt nach Konstruktion: MB (F ) ist eine obere Dreiecksmatrix. Denn: F¨ ur alle i ∈ {1, . . . , n} gilt: F (vi ) ∈ F (Vi ) ⊂ Vi . Also gibt es a1i , . . . , aii , so dass F (vi ) =
i X
aji vj .
j=1
Daher ist die darstellende Matrix MB (F ) gegeben durch A = (aij )1∈i,j∈n mit aij = 0 ∀i > j. ii) ⇒ i): Sei B = {v1 , . . . , vn } nun eine Basis von V , so dass A := MB (F ) eine obere Dreiecksmatrix ist. Setze Vi := span{v1 , . . . , vi }. Dann ist F (Vi ) ⊂ Vi , da F (vi ) =
n X j=1
aji vj =
i X
aji vj
j=1
2 24.7 Definition. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V ein Endomorphismus. Dann heißt ϕ trigonalisierbar, falls es eine Basis B von V gibt, so dass MBB (ϕ) eine obere Dreiecksmatrix ist. Entsprechend heißt eine Matrix A ∈ M (n × n, K) trigonalisierbar, falls sie zu einer oberen Dreiecksmatrix ¨ ahnlich ist. 24.8 Bemerkung. ϕ ist trigonalisierbar ⇔ MBB (ϕ) ist trigonalisierbar f¨ ur eine Basis B von V ⇔ MBB (ϕ) ist trigonalisierbar f¨ ur alle Basen B von V .
189 24.9 Satz. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V ein Endomorphismus. Dann sind a ¨quivalent: (i) ϕ ist trigonalisierbar. (ii) Pϕ zerf¨allt in Linearfaktoren. Beweis: (i) ⇒ (ii): Sei ϕ trigonalisierbar. Dann gibt es eine Basis B von V , so dass MBB (ϕ) =: D eine obere Dreiecksmatrix ist. Also zerf¨ allt das charakteristische Polynom von ϕ, denn es ist (λ1 − x) (λ2 − x) ∗ .. . Pϕ (x) = PD (x) = det .. . 0 (λn − x)
= (λ1 − x) . . . (λn − x).
(ii) ⇒ (i): Wir beweisen durch Induktion nach n := dim V ur n = 1 ist nichts zu zeigen. I.A.: F¨ I.V.: Die Aussage gelte f¨ ur eine n − 1 ∈ N. I.S.: Z.z.: Die Aussage gilt auch f¨ ur den Nachfolger n. Das charakteristische Polynom von ϕ zerfalle; wir schreiben daher Pϕ (x) = (λ1 − x) . . . (λn − x). W¨ ahle einen Eigenvektor v1 aus V von ϕ zum Eigenwert λ1 . Erg¨ anze diesen zu einer Basis ˜ = (v1 , v˜2 , . . . , v˜n ) von V . Dann ist ϕ(v1 ) = λ1 · v1 und die darstellende Matrix B von ϕ bzgl. dieser Basis hat daher die Gestalt: λ1 a 2 . . . a n 0 ˜ . MBB (ϕ) = ˜ .. . A2 0 Es ist
Pϕ (x)
= (λ1 − x) . . . (λn − x) = PM B˜ (ϕ) (x) ˜ B λ1 − x a 2 . . . an 0 = det .. A2 − x · n−1 . 0 = (λ1 − x) · det(A2 − x ·
n−1 )
= (λ1 − x) · PA2 (x)
allt in Linearfaktoren. ⇒ PA2 (x) = (λ2 − x) . . . (λn − x) zerf¨ Nach Induktionsvoraussetzung ist A2 trigonalisierbar, d.h. A2 ist ¨ ahnlich zu einer ˜ d.h. ∃S˜ ∈ GL(n − 1, K), so dass oberen Dreiecksmatrix D, ˜ 2 S˜−1 = D. ˜ SA
190
Kapitel 24. Trigonalisierung
Setze
S
S −1
:=
:=
1 0...0 0 S˜ 0 0 1 0...0 0 0 S˜−1 0
∈ GL(n, K)
.
Es gilt
˜
−1 S · MBB ˜ (ϕ) · S
=
=
=
λ1 a 2 . . . a n 0 · . · . . A˜2 0 a2 . . . an 1 0...0 0 · . . −1 ˜ ˜ S · A2 . S 0 λ1 ∗ . . . ∗ ∗...∗ 0 = . . . −1 ˜ 2 S˜ ˜ . SA D 0
1 0...0 0 .. S˜ . 0 λ1 0 .. . 0 λ1 0 .. . 0
1 0...0 0 .. . S˜−1 0
˜
−1 Also ist S · MBB eine obere Dreiecksmatrix. ˜ (ϕ) · S
2
24.10 Korollar. Jede Matrix A ∈ M (n × n, C) ist trigonalisierbar. Beweis: Nach dem Fundamentalsatz der Algebra zerf¨ allt PA in Linearfaktoren. Daher ist A nach dem eben bewiesenem Satz trigonalisierbar. 2 Rechenverfahren zur Trigonalisierung gegebener Matrizen: Sei A ∈ M (n×n, K) eine Matrix mit zerfallendem charakteristischem Polynom. Seien λ1 , . . . , λn ∈ K die (nicht notwendig verschiedenen) Nullstellen von PA . Schreibe PA (x) = (λ1 − x) . . . (λn − x).
v11 . n 1. Schritt: Berechne einen Eigenvektor v1 := .. ∈ K von A zum Eigenwert v1n λ1 . W¨ ahle ein i mit v1i 6= 0. Setze
S1 := (v1 , e1 , . . . , eˆi , . . . , en )−1 ∈ GL(n, K),
191 wobei der Hut bedeutet, dass dieser Eintrag wegzulassen ist. Dann ist S1 AS1−1 e1
⇒ S1 AS1−1
= S1 Av1 = S1 λ1 v1 = λ1 S1 v1 = λ1 e1 λ1 ∗ . . . ∗ 0 . = . .. A2 0
v22 . n−1 . 2. Schritt: Berechne einen Eigenvektor v˜2 = von A2 zum Eigenwert . ∈K v2n v22 . n ahle ein j mit v2j 6= 0 und setze λ2 . Setze v2 := .. ∈ K . W¨ v2n S2 := (e1 , v2 , e2 , . . . , eˆj , . . . , en )−1 ∈ GL(n, K).
Dann ist S2 S1 AS1−1 S2−1 e1
= S2 S1 AS1−1 e1 = S2 λ1 e1 = λ1 S2 e1 = λ1 e1 S2 S1 AS1−1 e2 ∗ ! λ 2 ∗ 0 = = S2 S1 AS1−1 v2 = S2 λ2 v2 = S2 λ2 v 2 .. . 0
Somit folgt
S2 S1 AS1−1 S2−1
λ1 0 = . .. 0
∗ λ2 0 .. . 0
∗
... ... A3
∗ ∗
usw. Insgesamt (n − 1) Schritte liefern S1 , . . . , Sn−1 ∈ GL(n, K), so dass f¨ ur S := Sn−1 · . . . · S2 · S1 ∈ GL(n, K) die Mattrix SAS −1 eine obere Dreiecksmatrix ist. 24.11 Beispiel. Sei K = Q, n = 3 und A ∈ M (3 × 3, Q) gegeben durch 3 4 3 A = −1 0 −1 . Das charakteristische Polynom lautet 1 2 3 3−x 4 3 PA (x) = det −1 −x −1 1 2 3−x = (3 − x)2 (−x) − 4 − 6 + 3x + 2(3 − x) + 4(3 − x) = −x3 + 6x2 − 9x − 10 + 3x + 6 − 2x + 12 − 4x = −x3 + 6x2 − 12x + 8 = (2 − x)3
192
Kapitel 24. Trigonalisierung
1. Schritt: Berechnung eines Eigenvektors v1 von A zum Eigenwert 2. ! ! v11 v11 1 4 3 0 0 3−x 4 3 = · v12 0 = −1 −2 −1 · v12 ⇔ 0 −1 −x −1 v13 v13 1 2 1 0 ! ! v11 0 1 4 3 ⇔ = · v12 0 0 2 2 v13 Diese Matrixgleichung ist ¨ aquivalent zu dem Gleichungspaar:
0 = 2v12 + 2v13 , d.h. v12 = −v13 0 = v11 + 4v12 + 3v13 , d.h. v11 = −v12 .
−1 1 0 0 1 0 0 1 Setze v1 := −1 und S1 = −1 1 0 = 1 1 0 . Es ist −1 0 1 1 0 1 1
S1 AS1−1
2 4 3 = 0 4 2 . 0 −2 0
2. Schritt: Berechnung eines Eigenvektors v˜2 von ! 0 = 0
S2 S1 AS1−1 S2−1
=
=
S = S 2 · S1
=
1 0 0 1 0 0 1 0 0
!
zum Eigenwert 2.
! ! v22 2 2 ⇔ v22 = −v23 v13 −2 −2
0 1 0 Setze v2 := 1 und S2 = 0 1 −1 0 −1 stalt transformierte Matrix sieht also so
4 2 −2 0
−1 0 1 0 0 0 = 0 1 0 . Die auf Dreicksge1 0 1 1 aus:
2 4 0 0 1 0 0 4 1 1 0 −2 0 0 2 1 1 0 0 2 1 1 0 −2 0 0 1 0 1 0 1 1 1 1 −1 0
1 0 0 3 2 0 1 0 1 0 −1 1 3 2 1 3 2 = 0 2 2 . Außerdem ist 0 0 0 2 0 1 0 0 0 0 1 0 . 1 0 1 1
Kapitel 25
Das Minimalpolynom 25.1 Definition. Sei K K¨ orper. Ein Quadrupel (A, +, ◦, ·), wobei A eine Menge ist, heißt K-Algebra, wobei + : A×A→A ◦ : A×A→A · : K ×A→ A Verkn¨ upfungen sind mit (A1) (A2) (A3)
(A, +, ·) ist ein K-Vektorraum. (A, +, ◦) ist ein Ring. (α · A) ◦ (β · B) = (αβ) · (A ◦ B) ∀A, B ∈ A, ∀α, β ∈ K
25.2 Bemerkung. 1) meistens schreibe ·“ statt ◦“. ” ” 2) Hat der Ring (A, +, ◦) eine 1, so nenne (A, +, ◦, ·) eine Algebra mit Einselement. 3) Ist der Ring (A, +, ◦) kommutativ, so heißt (A, +, ◦, ·) eine kommutative Algebra. 4) Da (A, +, ◦) ein Ring ist, ist ◦“ assoziativ. Darauf wird manchmal verzichtet; ” unsere Definition ist die assoziative K-Algebra.“ ” 25.3 Definition. Seien A und B beides K-Algebren. Ein KVektorraumraumhomomorphismus ϕ : A → B, der zugleich ein Ringhomomorphismus ist, heisst K-Algebrenhomorphismus. Sind A, B beides K-Algebren mit Eins, so verlangt man zus¨ atzlich ϕ(1) = 1 .
25.4 Beispiel. 1) A = K. ◦“= Multiplikation in K. Dann ist (K, +, ◦, ·) eine kommutative ” K-Algebra mit Einselement. 2) A = M at(n × n, K) +“ = komponentenweise Addition ” ◦“ = Matrixmultiplikation ” ·“ = komponentenweise Multiplikation mit K-Elementen, hier: ” element.
n
als Eins-
194
Kapitel 25. Das Minimalpolynom
3) Sei V ein (m¨ oglicherweise ∞-dimensionaler) Vektorraum und A = End(V ). F¨ ur ϕ, ψ ∈ A, α ∈ K ist: ϕ + ψ definiert durch (ϕ + ψ)(v) = ϕ(v) + ψ(v), α · ϕ definiert durch (αψ)(v) = α · ϕ(v), ϕ ◦ ψ definiert durch (ϕ ◦ ψ)(v) = ϕ(ψ(v)). ⇒ (A, +, ◦, ·) ist eine K-Algebra mit id als Einselement. 4) Sei X eine Menge und (A0 , +, ◦, ·) eine K- Algebra. Dann ist A = Abb(X, A0 ) mit +, ◦, ·“ als punktweiser Addition/Multiplikation und skalarer Multipli” kation ebenfalls eine K-Algebra. 25.5 Bemerkung. H¨ aufig lasse +, ◦, ·“ weg und rede von A als einer K-Algebra. ” 25.6 Bemerkung. Sei f ∈ K[x] Polynom. Dann kann man nicht nur K-Elemente in f einsetzen, sondern man kann auch Elemente einer beliebigen K-Algebra (mit 1) einsetzen. Genauer: Sei A eine K-Algebra mit 1, dann erhalte einen Ringhomomorphismus durch K[x] −→ Abb(A, A) f 7−→ f˜, wobei f¨ ur f = an xn + · · · + a1 x + a0 die Abbildung f˜ : A → A gegeben ist durch ˜ f (A) = an |A ◦ .{z . . ◦ A} + . . . + a1 A + a0 · 1, ∀A ∈ A. Schreibe An f¨ ur A . . ◦ A}. | ◦ .{z
n−mal n−mal Warum liefert f 7→ f˜ einen Ringhomomorphismus? Wir u ufen die Multiplikativit¨ at. (Addition ist einfacher) Z.z.: F¨ ur f, g ∈ K[x] : ¨berpr¨ fg · g = f˜ · g˜. Schreibe f := an xn + . . . + a1 x + a0 und g := bm xm + . . . + b1 x + b0 . m+n X X ⇒f ·g = a l · b j xk k=0
⇒ fg · g(A)
=
m+n X k=0
=
m+n X k=0
=
m+n X k=0
=
l+j=k
l+j=k
X
l+j=k
n X l=1
=
X
X
l+j=k
a l · bj Ak
al · bj · (Al · Aj )
(al Al ) · (bj · Aj )
! m X al Al · bj Aj j=1
˜ f(A) · g˜(A)
25.7 Definition. Sei K ein K¨ orper und A eine K-Algebra mit Einselement. Sei a ∈ A. Dann heißt Ann(a) := {f ∈ K[x]|f˜(a) = 0} der Annihilator von a. 25.8 Lemma. Der Annihilator ist ein Ideal im Ring K[x].
195 Beweis: a) Offensichtlich enth¨ alt Ann(A) das Nullpolynom. b) Seien f ·g ∈ Ann(A), dann ist widetilde(f − g)(A) = f˜(A)− g˜(A) = 0−0 = 0. ⇒ f − g ∈ Ann(A). ] · f] c) Sei f ∈ Ann(A), g ∈ K[x] ⇒ gg · f (A) = g(A) (A) = 0 ⇒ g · f ∈ Ann(A).
2
25.9 Beispiel. Sei A = M at(n × n; K), f = am xm + . . . + a1 x + a0 . 1) Sei A = 0n die Nullmatrix. Dann ist f] (A) = am ·0 . . · 0} + . . .+a1 ·0+a0 · = a0 · . Also ist f ∈ Ann(0n ) ⇔ a0 = 0. | · .{z m−mal ⇒ Ann(0n ) = {f = g · x | g ∈ K[x]}
2) Sei A =
n.
Dann ist f˜(A)
. . · } + . . . + a 1 n + a0 · = am · | · .{z m−mal = (am + . . . + a1 + a0 ) · n .
⇔ 0 = a m + . . . + a 1 + a0 m P al = 0}, wobei f = am xm + . . . + a0 . ⇒ Ann( n ) = {f ∈ K[x] |
Also: f ∈ Ann(
n)
l=0
Dieses Ideal kann auch anders geschrieben werden:
Ist f = am xm +. . .+a0 von der Form f = g·(x−1) mit g = gm·1 xm−1 +· · ·+b0 , so ist a m xn + . . . + a 0 ⇒ am + . . . + a 0
= bm−1 xn + (bm−2 − bm−1 )xm−1 + . . . + (b0 − b1 )x − b0 = bm−1 + (bm−1 − bm−1 ) + . . . + (b0 − b1 ) − b0 = 0.
Umgekehrt geht die Polynomdivision von f durch (x − 1) ohne Rest auf, wenn am + . . . + a0 = 0. Dann ist Ann( ) = {f = g(x − 1) | g ∈ K[x]}. ! 0 1 3) Sei n = 2, A = ⇒ A2 = A · A = 0. 0 0 ! a0 a1 m 2 ˜ ⇒ f(A) = am |{z} A + . . . + a2 |{z} A +a1 A + a0 2 = a1 A + a0 n = 0 a0 0
0
Also: f ∈ Ann(A) ⇔ a0 = a1 = 0 ⇒ Ann(A) = {f = g · 1 | g ∈ K[x]}
Generelle Frage: Wie sehen Ideale in K[x] aus? uhrende Koeffi25.10 Definition. Ein Polynom f ∈ K[x] heißt normiert, falls der f¨ zient 1 ist, d.h. falls f von der Form f = xn + an−1 xn−1 + . . . + a1 x + a0 ist. 25.11 Proposition. Sei I ⊂ K[x] ein Ideal. I 6= {0}. Dann existiert genau ein normiertes Polynom h ∈ K[x], so dass I = {f = g · h | g ∈ K[x]}.
196
Kapitel 25. Das Minimalpolynom
Beweis: a) Eindeutigkeit: Ist I = h · K[x] f¨ ur ein normiertes Polynom h, dann gilt f¨ ur alle f ∈ I\{0} : grad(f ) = grad(g · h) = grad(g) + grad(h) ≥ grad(h) Also hat h unter allen Polynomen in I\{0} den minimalen Grad. Seien jetzt h1 , h2 normierte Polynome mit I = h1 K[x] = hi · K[x] ⇒ h1 − h2 ∈ I ⇒ grad(h1 − h2 ) < grad(h1 ) ⇒ h1 − h2 = 0 ⇒ h1 = h2 . b) Existenz: W¨ ahle ein ˆ h in I\{0} mit minimalen Grad n. Schreibe ˆ = an xn + . . . + a0 , mit an 6= 0 h Setze h :=
an−1 n−1 a0 1 ˆ h = xn + x +... + an an an
Da I ein Ideal ist, folgt h ∈ I. Zeige nun: I = h · K[x] >“ klar ” <“ Sei f ∈ I, o.B.d.A. f 6= 0. (grad(f ) ≤ grad(h)) Polynomdivision von f durch ” h liefert f = h · g + n mit grad(n) < grad(h) Dann ist n = f − h · g ∈ I ⇒ r = 0 ⇒ f = h · g.
2
25.12 Bemerkung. Ideale in K[x] bestehen aus Polynomen, die sich durch Teibarkeitsbedingungen kennzeichnen lassen (Teilbarkeit durch h). 25.13 Definition. Sei A eine K-Algebra mit 1, a ∈ A. Dann heißt das eindeutig normierte Polynom Ma ∈ K[x] mit Ann(a) = Ma · K[x] das Minimalpolynom von a. 25.14 Beispiel. Sei A = M at(n × n; K). Dann ist M0n = x; M0
B0 @
1
1C A 0 0
M
n
= x − 1 und
= x2 .
Frage: Haben das Minimalpolynom und das charakteristische Polynom etwas miteinander zu tun? 25.15 Beispiel. Sei A ∈ M at(n × n; K). A 0n n
0 1 0 0
MA (x) x ! x−1 x2
PA (x) (−x)n (1 − x)n
diagonal ja ja
x2
nein
Genauere Aussagen machen der Satz von Cayley-Hamilton und seine Folgerungen. 25.16 Satz (Cayley-Hamilton). Sei A ∈ M (n × n; K). Dann ist P˜A (A) = 0n . Damit ist PA ∈ Ann(A) und MA teilt PA ohne Rest.
197 λ1 Zum Aufw¨ armen betrachten wir den Spezialfall, dass A = 0 Diagonalmatrix ist. F¨ ur beliebiges Polynom f ∈ K[x] gilt: f˜(λ1 ) 0 .. ˜ f(A) = . 0 f˜(λn ) Insbesondere f¨ ur f = PA :
P˜A (λ1 ) P˜A (A) = 0
0 ..
. P˜A (λn )
0 ..
. λn
eine
= 0n .
Zum Satz von Cayley-Hamilton nun der Beweis: a) Sei v ∈ K n beliebig. Z.z.: P˜A (A) · v = 0. Ohne Einschr¨ ankung sei v 6= 0. Setze v1 = v, v2 := A · v, . . . , vi+1 := A · vi = Ai+1 · v. W¨ ahle m so, dass v1 , . . . , vm linear unabh¨ angig, aber v1 , . . . , vm+1 linear abh¨ angig sind. Dann ist 1 ≤ m ≤ n. Schreibe vm+1 = α1 v1 + . . . + αm vm , αi ∈ K.
Sei W ⊂ K n der Untervektorraum, der von v1 , . . . , vm aufgespannt wird. b) Behauptung: W ist ein A-invarianter Basis (v1 , . . . , vm ) die Gestalt 0 1 ... .. . . .. .. . 0
Untervektorraum und A| W hat in der
0 ..
.
..
.
α1 .. . .. . .. . .. 0 . 1 αm
.
Beweis: Es ist A·v1 = v1 = 0·v1 +1·v2 +0·v3 +. . .+0·vm . Also lautet die erste Spalte (0, 1, 0, . . . , 0)t ∈ K m . Allgemeiner ist f¨ ur 1 ≤ i ≤ m − 1 : Avi = vi+1 und somit die i-te Spalte (0, . . . , 0, 1, 0, . . . , 0)t ∈ K m , wobei die 1 an der i + 1-ten Stelle steht. Die m − te Spalte lautet hingegen (α1 , . . . , αm )t ∈ K m wegen A · vm = vm+1 = α1 v1 + . . . + αm vm .
c) Behauptung: PA|W (x) = (−1)m+1 · (−xm + αm xm−1 + . . . + α1 ) −x α1 .. . .. 1 . 0 .. .. .. . . . Beweis: Es ist PA|W (x) = det .. . . .. .. . .. . −x αm−1 0 1 αm − x
198
Kapitel 25. Das Minimalpolynom Entwicklung nach der letzten Spalte liefert:
PA|W (x)
1 −x .. . m+1 = (−1) · α1 · det 0
..
.
..
.
0
−x 0 0 1 −x .. . m+2 (−1) · α2 · det 0
−x 1 m+(m−1) (−1) αm−1 det
−x 1 m+m (−1) (αm − x) det
= (−1)
m+1
+(−1) = (−1)
α1 · 2m−1
1 + (−1)
m+2
m
(−x + αm x
.
..
.
..
. −x
..
.
..
.
.
..
.
.
..
.
.
..
.
+ −x 0 0 1 0
..
.
..
.
0
..
..
+... −x 1
0 ..
+
..
.
1
0
..
.
..
.
0
..
.
1
α2 · (−x) + . . .
−x
m−2
+ αm (−x)m−1 + (−x)m
m−1
+ αm−1 xm−2 + . . . + α2 x + α1 )
αm−1 (−x)
m+1
..
1
d) Nach Lemma 24.1 existiert ein g ∈ K[x] mit PA (x) ⇒ P˜A (A)
⇒ P˜A (A) · v
= g(x) · PA|W (x) = g˜(A) · P˜A| (A) W
= g˜(A) · P˜A|W (A) · v
= (−1)m+1 g˜(A)(−Am + αm Am−1 + . . . + x2 A + α1 ) · v = (−1)m+1 g˜(A) · (−vm+1 + αvm + . . . + α0
1)
=0
25.17 Bemerkung. Der folgende kurze Beweis des Satzes von Cayley-Hamilton ist leider falsch: P˜A (A)
= det(A − A ·
n)
= det(A − A)
= det(0n ) = 0 6= 0n .
199 Die rechte Null ist die Nullmatrix, aber die linke das Nullelement in K. 25.18 Satz. Sei A ∈ M (n × n; K). Dann haben PA (x) und MA (x) dieselben Nullstellen. 25.19 Bemerkung. Die Vielfachheiten der Nullstellen k¨ onnen beim Minimalpolynom kleiner sein. Beweis: a) Der Satz von Cayley-Hamilton liefert PA = g · MA mit einem Polynom g. Also ist jede Nullstelle von MA auch eine Nullstelle von PA . ˜ A (λ) = 0. Zu λ als Eigenwert b) Sei umgekehrt λ eine Nullstelle von PA . Z.z.: M von A w¨ ahle einen zugeh¨ origen Eigenvektor v 6= 0. Schreibe MA (x) 0 = 0n · v
= xm + αm−1 xm−1 + . . . + α0 ˜ A (A) · v = (Am + αm−1 Am−1 + · + α0 = M m
m−1
= λ v + αm−1 λ · v + . . . + α0 v ˜ A (λ) · v ⇒ M ˜ A (λ) = 0 = M
m)
·v
Somit ist λ eine Nullstelle von MA . 2 Kriterium zur Diagonalisierbarkeit: Sei A ∈ M (n × n, K). Berechne PA . ↓ Berechne die versch. NSt λ1 , . . . , λn von PA ↓ Zerf¨ allt PA in Linearfaktoren? nein −→ A nicht diagonalisierbar. ↓ ja Setze f (x) := (x − λ1 ) · · · (x − λn ) ↓ ˜ Ist f (A) = 0n ? nein −→ A nicht diagonalisierbar. ↓ ja A ist diagonalisierbar.
! ! 2 1 2−x 1 25.20 Beispiel. Sei A = . Dann zerf¨ allt PA (x) = det = 0 2 0 2−x (2 − x)2 in Linearfaktoren. Es ist λ1 = λ2 = 2. Setze f (x) := x − 2, dann ist f˜(A) = A − 2 ·
=
2 1 0 2
!
−
2 0 0 2
!
=
0 1 0 0
⇒ A ist nicht diagonalisierbar. 25.21 Satz. Sei A ∈ M (n × n; K). Dann sind ¨aquivalent: (i) A ist diagonalisierbar. (ii) MA zerf¨allt in paarweise verschiedene Linearfaktoren.
!
6= 0n
200
Kapitel 25. Das Minimalpolynom
Beweis: (i) ⇒ (ii): Sei A diagonalisierbar, seien λ1 , . . . , λn die paarweise verschiedenen Eigenwerte von A. Setze f (x) := (x − λ1 ) · . . . · (x − λn ) ∈ K[x]. Wir zeigen: MA = f . Die λ1 , . . . , λn sind die Nullstellen von PA , also auch von MA . ⇒ f teilt MA . Sei v ∈ K n . Da A diagonalisierbar ist, hat man die Zerlegung K n = Eig(A, λ1 ) ⊕ . . . ⊕ Eig(A, λn ). Schreibe v = v1 + . . . + vk , vj ∈ Eig(A, λj ) = ˜ ker(a − λj m ). Dann ist f˜(A) · v = f(A) · v1 + . . . + f˜(A) · vk =0
}| { z = (A − λ2 n ) . . . (A − λk n ) · (A − λk n ) · v1 + . . . + (a − λ1 · n ) . . . (A − λn n )vk = 0 {z } | 0=
⇒ f˜(A) = 0n ⇒ f ∈ Ann(A) ⇒ MA teilt f . ⇒ ∃α ∈ K − {0}, so dass MA = αf . Da MA und f normiert sind, ist α = 1 und somit MA = f . (ii) ⇒ (i) Sp¨ ater sehen wir, wie das aus dem Satz u ¨ber die Jordansche Normalform folgt. 2
Kapitel 26
Die Jordan’sche Normalform Ziel: Finde auch f¨ ur nicht diagonalisierbare Endomorphimen eine m¨ oglichst einfache Matrixdarstellung. 26.1 Lemma. Seien λ1 , . . . , λn ∈ K paarweise verschieden, γ1 , . . . , γn ∈ N, sei f (x) = (x − λ1 )γ1 · · · (x − λn )γn ∈ K[x]. Dann gilt: (i) Falls ein Polynom g ∈ K[x] das Polynom f teilt, so ist es von der Form g(x) = α · (x − λ1 )µ1 · · · (x − λk )µk mit α ∈ K − {0} und µj ∈ N, µj ≤ γj .
(ii) Es gibt Polynome h1 , h2 ∈ K[x], so dass 1 = h1 (x) · (x − λ1 )γ1 + h2 (x) · (x − λ2 )γ2 · · · (x − λk )γk .
26.2 Bemerkung. Aus (i) folgt: Beweis:
PA zerf¨ allt in Linearfaktoren ⇒ MA zerf¨ allt in Linearfaktoren.
(i) g teile f , d.h. ∃h ∈ K[x], so dass f = g · h. Ist γ1 > 0, so ist λ1 Nullstelle von f , also auch von g oder von h. ⇒ ∃g1 ∈ K[x], so dass g(x) = (x − λ1 )g1 (x) oder ∃h1 ∈ K[x], so dass h(x) = (x − λ1 )h1 (x) ⇒ (x − λ1 )γ1 −1 · (x − λ2 )γ2 . . . (x − λk )γk = g1 (x)h(x) bzw. (x − λ1 )γ1 −1 · (x − λ2 )γ2 . . . (x − λk )γk = g(x)h1 (x).
Wiederholdung dieser Prozedur insgesamt γ1 + γ2 + · · · + γk = grad(f ) Male ˆ liefert 1 = (x − λ1 )0 . . . (x − λk )0 = gˆ(x) · h(x), wobei µ1 µk ˆ − λ1 )γ1 −µ1 · · · (x − g(x) = gˆ(x)(x − λ1 ) · · · (x − λk ) und h(x) = h(x)(x γk −µk λk ) . ˆ = 0, d.h. α := gˆ ∈ K − {0}. grad(ˆ g ) = grad(h) (ii) Setze f1 (x) f2 (x) Es gilt dann f = f1 · f2 .
:= (x − λ1 )γ1
:= (x − λ2 )γ2 · · · (x − λk )γk .
Sukzessive Division mit Rest (Euklidischer Algorithmus) liefert: f1 f2
fn−1
= q 1 · f2 + f 3 , = q 2 · f3 + f 4 , .. .
grad(f3 ) < grad(f2 ) grad(f4 ) < grad(f3 )
= qn−1 fn + fn+1 , grad(fn+1 ) < grad(fn ) .
202
Kapitel 26. Die Jordan’sche Normalform Irgendwann muss grad(fn+2 ) = −1 sein, d.h. fn+2 = 0 und damit fn = qn · fn+1 . Daraus ergibt sich fn+1 teilt fn ⇒ fn+1 teilt fn , fn−1 ⇒ fn+1 teilt alle fj .
Insbesondere teilt fn+1 f1 und f2 (i)
⇒ fn+1 ist eine Konstante 6= 0.
Induktiv sehen wir, dass jedes fj von der Form fj (x) = h1,j (x)f1 (x) + h2,j (x)f2 (x) ist; insbesondere gilt: fn+1 (x) = h1,n+1 (x)f1 (x) + h2,n+1 (x)f2 (x) ⇒1=
h1,n+1 (x) h2,n+1 (x) f1 (x) + f2 (x). fn+1 (x) fn+1 (x) | {z } | {z } =:h1 (x)
=:h2 (x)
2
26.3 Proposition. Sei f (x) = (x − λ1 )γ1 · · · (x − λk )γk ∈ K[x], wie eben. Sei V ein endlichdimensionaler K-Vektorraum. Sei ϕ : V → V ein Endomorphismus. Dann ist ˜ ker(f(ϕ)) = ker((ϕ − λ1 idV )γ1 ) ⊕ · · · ⊕ ker((ϕ − λk idV )γk ). ˜ Anmerkung: Es gilt (fg · g)(ϕ) = f(ϕ) ◦ g˜(ϕ). Diese Verkn¨ upfung ist kommutativ. Beweis: Induktion nach k. F¨ ur k = 1 ist die Aussage offensichtlich. k − 1 → k: Setze wieder f1 (x) := (x − λ1 )γ1 , f2 (x) := (x − λ2 )γ2 · · · (x − λk )γk . Lemma ⇒ ∃h1 , h2 ∈ K[x], so dass h1 f1 + h2 f2 = 1. Wir zeigen: ker(f˜(ϕ)) = ker(fe1 (ϕ)) ⊕ ker(fe2 (ϕ)). Dann folgt die Aussage nach Induktionsannahme f¨ ur ker(fe2 (ϕ)). a) Behauptung: ker(fe1 (ϕ)) ⊂ ker(f˜(ϕ)). Beweis: ist v ∈ ker(fe1 (ϕ)), so ist
e e f˜(ϕ)(v) = (fg 2 f1 )(ϕ)(v) = f2 (ϕ) ◦ f1 (ϕ) (v) = 0 | {z } =0
˜ ⇒ ker(fe1 (ϕ)) ⊂ ker(f(ϕ)). Analog: ker(fe2 (ϕ)) ⊂ ker(f˜(ϕ)). Es folgt: ker(fe1 (ϕ)) + ker(fe2 (ϕ)) ⊂ ker(f˜(ϕ))
b) Behauptung: ker(f˜(ϕ)) ⊂ ker(fe1 (ϕ)) + ker(fe2 (ϕ)). Beweis: Sei v ∈ ker(f˜(ϕ)). v = id(v)
f1 (ϕ)(v) + fe2 (ϕ) ◦ h f2 (ϕ)(v) = fe1 (ϕ) ◦ h | {z } | {z } =:v2
=:v1
f1 (ϕ)(v) fe2 (ϕ)(v2 ) = fe2 (ϕ) ◦ fe1 (ϕ) ◦ h f1 (ϕ)(v) = h f1 (ϕ) ◦ f˜(ϕ)(v) = 0 = f˜(ϕ) ◦ h
⇒ v2 ∈ ker(fe2 (ϕ)). Analog v1 ∈ ker(fe1 (ϕ)).
203 c) Behauptung: Die Summe ist direkt, d.h. ker(fe1 (ϕ)) ∩ ker(fe2 (ϕ)) = {0}.
Beweis: Sei v ∈ ker(fe1 (ϕ)) ∩ ker(fe2 (ϕ)). Dann ist v
f2 (ϕ) ◦ fe2 (ϕ)(v) f1 (ϕ) ◦ fe1 (ϕ)(v) +h = id(v) = h | {z } | {z } =0
=0
= 0.
2 26.4 Satz (Zerlegung verallgemeinerter Eigenr¨ aume). Sei V ein endlichdimensionaler K-Vektorraum. Sei ϕ : V → V ein Endomorphismus. Mϕ zerf¨allt in Linearfaktoren. Dann gilt: V = ker (ϕ − λ1 id)γ1 ⊕ · · · ⊕ ker (ϕ − λk id)γk ,
wobei Mϕ (x) = (x − λ1 )γ1 · · · (x − λk )γk ist. Beweis: Mϕ (ϕ)(v) = 0∀v ∈ V. Somit ist V
g = ker(M ϕ (ϕ))
= ker((ϕ − λ1 )γ1 ) ⊕ · · · ⊕ ker((ϕ − λk )γk ). 2
26.5 Folgerung. Wenn Mϕ in paarweise verschiedene Linearfaktoren zerf¨allt, d.h. γ1 = γ2 = · · · = γk = 0, dann ist ϕ diagonalisierbar. Sei V ein endlich-dimensionaler K-Vektorraum und ϕ : V → V ein Endomorphismus. Das Minimalpolynom Mϕ (x) = (x − λ1 )γ1 · . . . · (x − λk )γk zerfalle in Linearfaktoren mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Dann gilt: V = ker (ϕ − λ1 · id)γ1 ⊕ . . . ⊕ ker (ϕ − λk · id)γk {z } | {z } | =:W1
=:Wk
und Wj (j = 1, . . . , k) ist ein ϕ-invarianter Untervektorraum von V , denn f¨ ur v ∈ Wj ist (ϕ − λj · id)γj (ϕ(v)) = ϕ((ϕ − λj · id)γj (v)) = ϕ(0) = 0. Ist Bj eine Basis von {z } | =0
Wj (j = 1, . . . , k) und setzen wir diese zu einer Basis B = (B1 , . . . , Bn ) von V zusammen, so gilt: A1 | A2 0 .. MBB (ϕ) = , . 0 |An B
wobei Aj = MBjj (ϕ|Wj ).
Wir versuchen nun, die Basen Bj so zu w¨ ahlen, dass die Bl¨ ocke Aj m¨ oglichst einfach werden. Auf Wj ist ϕ|Wj = λj · idWj + (ϕ|Wj − λj · idWj ), | {z } =:ϕj
γ
wobei ϕj j = 0.
204
Kapitel 26. Die Jordan’sche Normalform
26.6 Definition. Ein Endomorphismus ϕ : W → W heißt nilpotent, falls es ein γ ∈ N gibt mit ϕγ = 0 . F¨ ur w ∈ W − {0} heißt k ∈ N die ϕ-Periode von w, falls ϕk−1 (w) 6= 0, aber ϕk (w) = 0. 26.7 Bemerkung. Es ist stets k ≤ γ. 26.8 Lemma. Sei ψ : W → W nilpotent, sei w ∈ W − {0} mit ψ-Periode k. Dann sind w, ψ(w), ψ 2 (w), . . . , ψ k−1 (w) linear unabh¨angig. Sei α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w) = 0
Beweis:
⇒ 0 = ψ k−1 (0)
=
ψ k−1 (α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w))
=
α0 ψ k−1 (w) +α1 ψ k (w) + . . . + ψ 2k−2 (w) | {z } | {z } | {z } 6=0
=0
=0
⇒ α0 = 0
⇒ α1 ψ(w) + . . . + αk−1 ψ k−1 (w) = 0
Anwendung von ψ k−2 liefert α1 = 0 usw.
2
26.9 Bemerkung. Zψ (w) := spanK {w, ψ, (w), . . . , ψ k−1 (w)} ist ein kdimensionaler ψ-invarianter Untervektorraum von W . Bez¨ uglich der Basis (ψ k−1 (w), . . . , ψ(w), w) hat ψ| Zψ (w) die Matrixdarstellung
0 1 0 1 0
..
.
..
.
. (Weiße Stellen bedeuten Nullen.) 1 0
26.10 Lemma (Zerlegungslemma f¨ ur nilpotente Endomorphismen). Sei W ein endlich-dimensionaler K-Vektorraum und ψ : W → W ein nilpotenter Endomorphismus. Sei w ∈ W − {0} ein Element mit maximaler ψ-Periode k. Dann existiert ein ψ-invarianter Untervektorraum U von W , so dass W = Zψ (w) ⊕ U. Beweis: W¨ ahle einen ψ-invarianten Untervektorraum U ⊂ W mit maximaler Dimension, so dass Zψ (w) ∩ U = {0}. Dann ist Zψ (w) ⊕ U ⊂ W eine direkte Summe. Z.z.: Zψ (w) ⊕ U = W . Angenommen das w¨ are nicht der Fall: Dann g¨ abe es ein v ∈ W mit v ∈ / Zψ (w)⊕U . W¨ ahle j so, dass ψ j−1 (v) ∈ / Zψ (w)⊕U , j aber ψ (v) ∈ Zψ (w) ⊕ U. Ein solches j existiert, da ψ nilpotent ist. Setze: x := ψ j−1 (v). Dann gilt x ∈ / Zψ (w) ⊕ U , aber ψ(x) ∈ Zψ (w) ⊕ U . Schreibe ψ(x) = α0 w + . . . + αk−1 ψ k−1 (w) + u. x hat eine ψ-Periode ≤ k. ⇒ 0 = ψ k (x) = ψ k−1 (α0 w + α1 ψ(w) + . . . + αk−1 ψ k−1 (w) + u) = α0 ψ k−1 (w) + ψ k−1 (u) {z } | {z } | ∈Zψ (w)
∈U
⇒ α0 = 0, ψ k−1 (u) = 0 ⇒ ψ(x) = α1 ψ(w) + . . . + αk−1 ψ k−1 (w) + u. Setze: y := x − (α1 w + . . . + αk−1 ψ k−2 (w))
205 Dann gilt ψ(y) = u ∈ U, y ∈ / Zψ (w) ⊕ U , denn sonst w¨ are auch x = y + α1 w + . . . + αk−1 ψ k−2 (w) ∈ Zψ (w) ⊕ U . Setze: U 0 := U ⊕K ·y. Es ist dim(U 0 ) = dim(U )+1, U 0 ψ-invariant, ψ(U 0 ) ⊂ U ⊂ U 0 , und Zψ (w)∩U 0 = {0}. Denn w¨ are w0 ∈ Zψ (w)−{0}, u0 ∈ U, α ∈ K mit w0 = u0 +αy, dann w¨ are α 6= 0. (Sonst w¨ are w0 = u0 ∈ U , damit w0 ∈ Zψ (w) ∩ U und also w0 = 0 im Widerspruch zur Annahme.) Dann w¨ are aber y = α1 (w0 − u0 ) ∈ Zψ (w) ⊕ U , was wir oben schon ausgeschlossen hatten. U 0 hat also dieselben Eigenschaften wie U , aber dim(U 0 ) > dim(U ), im Widerspruch zur Maximalit¨ at von dim(U ). 2 26.11 Satz (Zerlegungssatz f¨ ur nilpotente Endomorphismen). Sei W ein endlich-dimensionaler K-Vektorraum, sei ψ : W → W ein nilpotenter Endomorphismus. Dann existieren w1 , . . . , wl ∈ W , so dass W = Zψ (w1 ) ⊕ · · · ⊕ Zψ (wl ). l und die Dimensionen der Zψ (wj ) sind bis auf die Reihenfolge eindeutig durch ψ festgelegt. Beweis: Die Existenz (der Zerlegung) folgt induktiv aus dem Zerlegungslemma. Offenbar sind dim(ker ψ| Zψ (wj ) ) = 1 und dim(ker ψ) = l durch ψ eindeutig festgelegt. Bezeichnet nj die ψ-Periode von wj , dann gilt f¨ ur m ∈ N: ker (ψ|Zψ (wj ) )
m
=
(
spanK {ψ nj −m (wj ), . . . , ψ nj −1 (wj )}, falls nj ≥ m Zψ (wj ), falls m > nj
⇒ dim ker(ψ|Zψ (wj ) )m
= min{m, nj } ⇒ dim(ker ψ ) = # j | min{2, nj } = 1 · 1 + # j | min{2, nj } = 2 · 2 2
= #{j | nj = 1} · 1 + (l − #{j | nj = 1}) · 2 = 2l − #{j | nj = 1}
⇒ #{j | nj = 1} ist durch ψ festgelegt. Induktiv folgt: #{j | nj = m} ist durch ψ festgelegt.
2
26.12 Folgerung. Sei W ein endlich-dimensionaler K-Vektorraum, sei ψ : W → W ein nilpotenter Endomorphismus. Dann existiert eine Basis B von W , so dass
B MB (ψ) =
wobei cj von der Form
0
c1 |
c2 ..
0
.
.
0
1 ..
..
.
0
..
.
..
.
..
.
0 , |ce
ist. 1 0
Die cj sind bis auf Reihenfolge eindeutig durch ψ bestimmt.
206
Kapitel 26. Die Jordan’sche Normalform
26.13 Definition. Eine Matrix der Form λ 1 .. .. . . .. . 0
0
1 λ
nennt man einen Jordanblock, wobei λ ∈ K. 26.14 Satz (Jordansche Normalform). Sei K ein K¨orper, sei V ein endlichdimensionaler K-Vektorraum und sei ϕ : V → V ein Endomorphismus, dessen Minimalpolynom in Linearfaktoren zerf¨allt. Dann existiert eine Basis B von V , so dass J1 | J2 B , MB (ϕ) = .. . |Jn
wobei alle Ji Jordanbl¨ocke sind. Diese Jordansche Normalform ist bis auf Reihenfolgt der Jordanbl¨ocke eindeutig. Beweis: Sei Mϕ (x) = (x − λ1 )γ1 . . . (x − λk )γk , wobei λ1 , . . . , λk die paarweise verschiedenen Eigenwerte sind. Die verallgemeinerte Eigenraumzerlegung von ϕ lautet V = ker((ϕ − λ1 · id)γ1 ) ⊕ . . . ⊕ ker((ϕ − λk · id)γk ) . | | {z } {z } =:W1
=:Wk
γ
Auf Wj definiere: ψj := ϕ|Wj − λj · idWj , wobei ψj j = 0. W¨ ahle eine Basis Bj von Wj , so dass
B MBjj (ψj )
mit cj,γ
=
0
B MBjj (ϕ|Wj )
1 .. .
=
..
.
..
.
Jj,1 |
=
cj,1 |
..
. ..
. |cj,lj
∈ M (γ × γ, K). In dieser Basis ist dann 1 0 ..
. ..
. |Jj,lj
mit Jj,γ =
λj
1 ..
.
..
.
..
.
. 1 λj
Setzen wir diese Basen zusammen, so leistet die Basis B = (B1 , . . . , Bn ) das Gew¨ unschte. 2
207 26.15 Folgerung. Jede komplexe Matrix besitzt Jordansche Normalform. Beweis: Nach dem Fundamentalsatz der Algebra zerf¨ allt das Minimalpolynom einer komplexen Matrix in Linearfaktoren. Daher folgt die Behauptung sofort aus dem eben bewiesenen Satz. 2 26.16 Folgerung. Zwei Matrizen A1 , A2 ∈ M (n × n; K), deren Minimalpolynome in Linearfaktoren zerfallen, sind ¨ahnlich ⇔ ihre Jordansche Normalform stimmt bis auf Reihenfolge der Jordanbl¨ocke u ¨berein. Frage: Wie h¨ angen das Minimalpolynom und die Jordansche Normalform eines Endomorphismus ϕ : V → V zusammen? Das Minimalpolynom zerfalle in Linearfaktoren mit den paarweise verschiedenen Eigenwerten λ1 , . . . , λk Mϕ = (x − λ1 )γ1 . . . (x − λn )γn . Wir bestimmen γ1 : Sei dazu λ1 1 . . .. .. .. . 1 λ1 r1 − mal λ1 1 .. . . .. .. . 1 λ1 r2 − mal
..
. λ1
1 .. .
..
.
..
.
rl − mal
1 λ1 λ2
die Darstellung von ϕ in Jordanscher Normalform. Bezeichne mit N ∈ M (r × r, K), r = r1 + · · · + rl , den nilpotenten Anteil von J1 = ∆(J1,r1 , . . . , J1,rl ) (dies entspricht genau ϕ|W1 − λ1 · idW1 in der Darstellung der Jordanschen Normalform), d.h. N ist von der Form 0 1 .. . . .. N = , .. . 1 0 wobei auf der Nebendiagonalen ausser den Einsen auch Nullen auftauchen k¨ onnen. Es ist N r−1 6= 0, aber N r = 0 und somit: (ϕ|W1 − λ1 · idW1 )r = 0 ⇔ r ≥ max{r1 , . . . , rl }.Daraus folgt unmittelbar f¨ ur das Minimalpolynom: γ1 = max{r1 , . . . , rl }.
1 .. .
208
Kapitel 26. Die Jordan’sche Normalform
26.17 Beispiel. Sei A =
2 0 0 0
1 2 0 0
PA (x) MA (x) µalg (2) = 2; µgeo (2) = 1;
0 0 3 0
0 0 0 3
gegeben; dann ist
= (2 − x)2 (3 − x)2 = (x − 2)2 (x − 3) µalg (3) = 2 µgeo (3) = 2.
26.18 Bemerkung. Die geometrische Vielfachheit eines Eigenwertes λ einer Jordanmatrix ist genau die Anzahl der Jordanbl¨ ocke zum Eigenwert λ.
Kapitel 27
Bilinearformen 27.1 Definition. Sei V ein K-Vektorraum. Eine Abbildung β : V × V → K heißt Bilinearform, falls f¨ ur alle α1 , α2 ∈ K, v1 , v2 , v, w1 , w2 , w ∈ V gilt: β(α1 v1 + α2 v2 , w) = α1 β(v1 , w) + α2 β(v2 , w), β(v, α1 w1 + α2 w2 ) = α1 β(v, w1 ) + α2 β(v, w2 ).
27.2 Beispiel. a) K = R, V = R2 : β(v, w) = hv, wi = v1 w1 + v2 w2 b) K beliebig, V = K 2 : β(v, w) = det(v, w) c) K = R, V = C 0 ([a, b], R):
β(f, g) =
Zb
f (t)g(t)dt :
β(α1 f1 + α2 f2 , g) =
Zb
(α1 f1 + α2 f2 )(t) · g(t) dt
=
Zb
(α1 f1 (t) + α2 f2 (t)) · g(t) dt
Zb
α1 f1 (t)g(t) + α2 f2 (t)g(t) dt
a
a
a
=
a
= α1
Zb a
f1 (t)g(t) dt + α2
Zb
f2 (t)g(t) dt
a
= α1 β(f1 , g) + α2 β.(f2 , g) Linearit¨ at im zweiten Argument folgt aus β(f, g) = β(g, f ). Ist V ein endlichdimensionaler K-Vektorraum und B = (b1 , . . . , bn ) eine Basis von V , weiter β : V × V → K eine Bilinearform, so ist β durch ihre Werte auf den
210
Kapitel 27. Bilinearformen
Basisvektoren eindeutig bestimmt. Setze βij := β(bi , bj ). Allgemein k¨ onnen wir f¨ ur beliebige v, w ∈ V schreiben: n n P P v= vi bi , w = wj bj , v i , wi ∈ K i=1
j=1
⇒ β(v, w)
= β(
n X
vi bi ,
i=1
= = =
n X
i=1 n X
vi β(bi ,
n X
j=1 n X
wj bj ) wj bj )
j=1
vi
i=1 n X
n X
wj β(bi , bj )
j=1
vi wj βij .
i,j=1
Sind umgekehrt βij ∈ K vorgegeben und eine Basis B von V , dann definiert die n P vi wj βij eine Bilinearform. Gleichung β(v, w) := i,j=1
27.3 Definition. Ist V ein endlichdimensionaler K-Vektorraum und β : V ×V → K eine Bilinearform, B = (b1 , . . . , bn ) eine Basis von V , so heißt die Matrix (βij )i,j=1,...,n ∈ M (n × n, K) die Matrix, die β bez¨ uglich B darstellt. Schreibe: (βij )i,j=1,...,n =: MB (β). Frage: Wie ¨ andert sich die darstellende Matrix von β bei Wechsel der Basis? B = (b1 , . . . , bn ), B 0 = (b01 , . . . , b0n ) seien Basen von V. c11 . . . c1n n . P .. .. . cki b0k . Transformationsmatrix TBB0 = . . , wobei bi = . k=1 cn1 . . . cnn βij
= β(bi , bj ) = β
n X
cki b0k ,
k=1
= =
n X
k,l=1 n X
k,l=1
⇒ MB (β)
n X l=1
clj b0l
!
cki clj β(b0k , b0l ) 0 cki βkl · clj
= (TBB0 )t · MB 0 (β) · TBB0 .
27.4 Proposition (Transformationsformel f¨ ur Bilinarformen). Ist β : V × V → K eine Bilinearform, sind B und B 0 Basen des endlichdimensionalen KVektorraumes V , so gilt MB (β) = (TBB0 )t · MB 0 (β) · TBB0 .
211 27.5 Bemerkung. F¨ ur einen Endomorphismus ϕ : V → V gilt die Transformationsformel −1 MB (ϕ) = TBB0 · MB 0 (ϕ) · TBB0 . 27.6 Bemerkung. Im Fall V = K n gilt f¨ ur Standardbasis B: β(v, w)
=
n X
vi wj β(ei , ej )
i,j=1
= v t · MB (β) · w. 27.7 Definition. Eine Bilinearform β : V × V → K heißt symmetrisch, falls β(v, w) = β(w, v)
∀v, w ∈ V.
β heißt schiefsymmmetrisch, falls β(v, w) = −β(w, v)
∀v, w ∈ V.
27.8 Beispiel. a) K = R; V = R2 , β(v, w) = hv, wi β ist symmetrisch. b) K beliebig; V = K 2 , β(v, w) = det(v, w) β ist schiefsymmetrisch. c) K = R; V = C 0 ([a, b], R); β(f, g) = β ist symmetrisch.
Rb
f (x)g(x)dx
a
27.9 Definition. Eine Matrix A ∈ M (n × n; K) heißt symmetrisch, falls At = A, und schiefsymmetrisch, falls At = −A. 27.10 Bemerkung. β ist (schief)symmetrisch ⇔ ∃ Basis B : MB (β) ist (schief-) symmetrisch ⇔ ∀ Basen B : MB (β) ist (schief)symmetrisch. 27.11 Definition. Sei β : V × V → K eine symmetrische Bilinearform. Dann heißt die Abbildung qβ : V → K, qβ (v) = β(v, v) quadratische Form zu β. 27.12 Proposition (Polarisierung). Sei K ein K¨orper mit char(K) 6= 2. Dann gilt f¨ ur jede symmetrische Bilinearform β auf einem K-Vektorraum V : β(v, w) =
1 qβ (v + w) − qβ (v) − qβ (w) 2
∀v, w ∈ V.
Insbesondere bestimmen sich β und qβ gegenseitig. Beweis:
qβ (v + w) − qβ (v) − qβ (w) = β(v + w, v + w) − β(v, v) − β(w, w)
= β(v, v) + β(v, w) + β(w, v) + β(w, w) − β(v, v) − β(w, w) = β(v, w) + β(w, v) = 2β(v, w) 2
212
Kapitel 27. Bilinearformen
27.13 Beispiel. K = F2 , dann ist char(K) = 2. V = (F2 )2 ; β : V × V → K verm/¨ oge β(v, w)
= v 1 · w2 + v 2 · w1 ! ! 0 1 w1 . = (v1 , v2 ) · w2 1 0
β 6= 0, denn β(e1 , e2 ) = 1 6= 0. qβ (v) = β(v, v) = v1 v2 + v2 v1 = 2v1 v2 = 0 ∀v ∈ V ⇒ qβ = 0. Mit char(K) = 2 geht es also tats¨ achlich nicht. 27.14 Satz (Normalform f¨ ur symmetrische Bilinearformen). Sei K ein K¨orper mit char(K) 6= 2. Sei V ein endlichdimensionaler K-Vektorraum, sei β eine symmetrische Bilinearform auf V . Dann existiert eine Basis B = (b1 , . . . , bn ) von V , so dass MB (β) eine Diagonalmatrix ist, d.h. β(bi , bj ) = 0 ∀i 6= j. Beweis: Induktion nach n := dim(V ) IA: n = 1 : klar (nichts zu zeigen) IS: n − 1 → n : 1. Fall: qβ (v) = 0 ∀v ∈ V
Prop. 27.12 =⇒ β = 0 ⇒ MB (β) = 0n f¨ ur jede Basis B.
2. Fall: ∃b1 ∈ V : qβ (b1 ) 6= 0 Betrachte die lineare Abbildung ϕ : V → K, ϕ(v) = β(b1 , v). ϕ(b1 ) = β(b1 , b1 ) = qβ (b1 ) 6= 0 ⇒ ϕ 6= 0 ⇒ rg(ϕ) = 1 da dim K = 1
⇒ dim(ker(ϕ))
=
dim V − rg(ϕ) = n − 1.
Die Induktionsannahme f¨ ur U := ker(ϕ) liefert eine Basis (b2 , . . . , bn ) von U , so dass β(bi , bj ) = 0, falls 2 ≤ i 6= j ∈ n. Mit b1 ∈ / U erh¨ alt man eine Basis B = (b1 , b2 , . . . , bn ) von V mit der (gew¨ unschten) Eigenschaft, dass β(b1 , bj ) = ϕ(bj ) = 0 f¨ ur j ≥ 2 ⇒ β(bi , bj ) = 0 ∀i 6= j. 2 Verfahren zur Berechnung einer diagonalisierenden Basis: 1. Schritt: W¨ ahle b1 ∈ V − {0} mit β(b1 , b1 ) 6= 0. (Falls nicht m¨ oglich, so ist β = 0. Dann tut es jede Basis.) 2. Schritt: Berechne U1 = ker(ϕ1 ), wobei ϕ1 : V → K mit ϕ(v) = β(b1 , v). 3. Schritt: W¨ ahle b2 ∈ U1 − {0} mit β(b2 , b2 ) 6= 0. (Falls nicht m¨ oglich, so ist β|U1 ×U1 = 0. Dann tut es jede Basis von U1 , durch b1 zur Basis von V erg¨ anzt.)
213 4. Schritt: Berechne U2 := ker(ϕ2 ), wobei ϕ2 : U1 → K, ϕ2 (v) = β(b2 , v). 5. Schritt: W¨ ahle b3 ∈ U2 − {0} mit β(b3 , b3 ) 6= 0. (Falls nicht m¨ oglich, so ist β|U2 ×U2 = 0. Dann tut es jede Basis von U2 , durch b1 , b2 zur Basis von V erg¨ anzt.) usw. 3 K = Q, V = Q , 2 0 1 0 · w. 0 0 1 β(b1 , b1 ) = 2 6= 0 a) Setze b1 := e1 = 0 . 0
27.15 Beispiel. 2 β(v, w) = v t · 2 0
b)
ϕ1 (v) = β(b1 , v)
v1 2 2 0 = 1 0 0 2 1 0 v2 v3 0 0 0 = 2v1 + 2v2
⇒ U1 = ker(ϕ1 ) = {v ∈ Q3 |v1 = −v2 } c) Setze
1 b2 := −1 ∈ U1 . Dann ist β(b2 , b2 ) = −1 6= 0. 0
d)
ϕ2 (v) = β(b2 , v)
=
v1 2 2 0 1 −1 0 2 1 0 v2 0 0 0 v3
= v2
⇒ U2 = ker(ϕ2 ) = {v ∈ U1 |v2 = 0} = {v ∈ Q3 |v1 = v2 = 0} = Q · e3
e) b3 = e3 .
1 1 0 Die Basis B = (b1 , b2 , b3 ) = 0 , −1 , 0 diagonalisiert β. Es gilt: 0 0 1 2 0 0 MB (β) = 0 −1 0 . 0 0 0
214
Kapitel 27. Bilinearformen
27.16 Bemerkung. Es gibt i.A. viele diagonalisierende Basen zu einer symmetrischen Bilinearform β. Die Diagonalmatrix ist durch β nicht festgelegt, auch nicht nur bis auf Reihenfolge der Diagonaleintr¨ age. Allerdings: F¨ ur zwei Basen B und B 0 gilt: 0
0
MB (β) = (TBB )t · MB (β) · TBB ⇒ rg(MB 0 (β)) = rg(MB (β)). Sind insbesondere B und B 0 diagonalisierende Basen, so haben MB (β) und MB 0 (β) gleich viele Nullen auf der Diagonale. 27.17 Definition. Zu einer symmetrischen Bilinearform β : V × V → K heißt N (β) := {v ∈ V |β(v, w) = 0 ∀w ∈ V } der Nullraum von β. 27.18 Bemerkung. N (β) ist ein Untervektorraum von V . 27.19 Bemerkung. Ist B = (b1 , . . . , bn ) diagonalisierende Basis f¨ ur β, dann ist bi ∈ N (β) genau dann, wenn β(bi , bi ) = 0. Beweis:
Sei β(bi , bi ) = 0. Dann ist f¨ ur jedes w ∈ V β(bi , w) = β(bi ,
n X
wj bj ) =
j=1
n X
wj β(bi , bj ) = 0
j=1
. Sei umgekehrt v ∈ N (β). n P Schreibe v = vi bi . Ist nun β(bk , bk ) 6= 0, dann ist i=1
0 = β(v, bk ) =
n X i=1
vi β(bi , bk ) = vk β(bk , bk ) =⇒ vk = 0. | {z } | {z } =0 f¨ ur i6=k
6=0
N (β) hat also als Basis genau diejenigen bi mit β(bi , bi ) = 0, d.h. #{Nullen auf der Diagonalen}= dim(N (β)). 2 27.20 Definition. Eine symmetrische Bilinearform heißt ausgeartet (degeneriert, entartet), falls N (β) 6= {0}. 27.21Bemerkung. a) Ist B α1 0 .. , so ist . 0 αn αj 6= 0 ∀ j = 1, . . . , n.
b) Sei MB (β) =
α1
0 ..
.
Basis β
von
genau
V,
dann
so nicht
dass
MB (β)
ausgeartet,
= wenn
. Setze W := span{bj | αj 6= 0}.
0 αn Dann gilt: V = W ⊕ N (β). β|W ×W : W × W → K ist nicht ausgeartet.
27.22 Satz (Sylvester). Sei V ein endlichdimensionaler R-Vektorraum. Sei β : V × V → R eine symmetrische Bilinearform. Dann existiert eine Basis B von V ,
215 so dass
| MB (β) =
1 ..
{z r+
. 0 }
0
. 1
}
−1
|
..
.
{z r−
−1
}
0 ..
0 |
.
{z r0
r+ , r− und r0 sind durch β eindeutig bestimmt. Beweis:
a) W¨ ahle Basis B 0 = (b01 , . . . , b0n ) von V , so dass MB 0 (β) = Setze γj :=
(
√1 , |aj | 1,
aj 6= 0
aj = 0
α1
0 ..
0
. αn
und bj := γj b0j . Dann ist
.
β(bi , bj ) = γi · γj · β(b0i , b0j ). i 6= j ⇒ β(bi , bj ) = 0;
β(bi , bi ) = β(γi b0i , γi b0i ) = γi2 β(b0i , b0i ) = γi2 · αi . αi = 0 ⇒ β(bi , bi ) = 0; αi αi 6= 0 ⇒ β(bi , bi ) = = ±1. |αi |
=⇒ MB (β) ist eine Diagonalmatrix mit +1, −1 und 0 auf der Diagonale. Geeignetes Umnummerieren der Basisvektoren liefert die gew¨ unschte Matrixdarstellung. b) Wir wissen bereits, dass r0 = dim(N (β)), also ist r0 durch β festgelegt. Bleibt zu zeigen, dass r+ durch β festgelegt ist, dann ist es auch r− = dim(V ) − r+ − r0 . Behauptung: r+ = max dim(W ) | W qβ (v) > 0 ∀v ∈ W − {0} .
⊂
V
Untervektorraum
mit
Beweis: Setze m := max dim(W ) | W ⊂ V Untervektorraum mit qβ (v) > 0 ∀v ∈ ur W − {0} .. Wir zeigen zun¨ achst m ≥ r+ . Setze W0 := span{b1 , . . . , br+ }. F¨
216
v=
Kapitel 27. Bilinearformen r+ P
j=1
vj bj ∈ W0 − {0} gilt qβ (v)
r+ r+ X X = β(v, v) = β vj bj , vk bk j=1
k=1
r+
X
=
j,k=1
vj vk β(bj , bk ) | {z } =
(
0, j = 6 k 1, j = k
⇒ m ≥ dim(W0 ) = r+ . Wir zeigen nun: m ≤ r+ : Sei W ⊂ V Untervektorraum mit dim(W ) > r+ . Z.z.: ∃v ∈ W − {0} : qβ (v) ≤ 0: dim(W ) + dim(span{br++1 , . . . , bn }) > r+ + r− + r0 = dim(V ). ⇒ dim(W ∩ span(br+ +1 , . . . , bn )) ≥ 1 ⇒ ∃ v ∈ W ∩ span{br+ +1 , . . . , bn }, v 6= 0. n n P P vj2 β(bj , bj ) ≤ 0. vj bj . Dann ist qβ (v) = 2 Schreibe v = | {z } j=r+ +1 j=r+ +1
2
≤0
27.23 Bemerkung. Analog sieht man: r− = max dim(W ) | W ⊂ V Untervektor raum mit qβ < 0 auf W − {0} . 27.24 Definition. Eine symmetrische Bilinearform β : V × V → R heißt positiv definit, falls qβ > 0 auf V − {0}, negativ definit, falls qβ < 0, und indefinit, falls es v1 , v2 ∈ V gibt mit qβ (v1 ) > 0 und qβ (v2 ) < 0. β heißt positiv semidefinit, falls qβ ≥ 0 auf V und negativ semidefinit, falls qβ ≤ 0 auf V . ausgeartet positiv definit negativ definit indefinit positiv semidefinit negativ semidefinit
r0 > 0 r − = r0 = 0 r + = r0 = 0 r+ > 0; r− > 0 r− = 0 r+ = 0
Sei β eine positiv definite symmetrische Bilinearform auf R2 . Wie sieht qβ−1 (%) = {v ∈ R2 | qβ (v) = %} aus? a) % < 0 ⇒ qβ−1 (%) = ∅
b) % = 0 ⇒ qβ−1 (%) = {0} c) % > 0 ⇒ qβ−1 (%) heißt Ellipse. 27.25 Beispiel. Sei!B = (e1 , e2 ) die Standardbasis, β sei diejenige Bilinearform 1 0 mit MB (β) = . Dann ist 0 1 qβ−1 (%)
2
2
t
= {v ∈ R |β(v, v) = %} = {v ∈ R |v ·
1 0 0 1
= {v ∈ R2 |v t · v = %} = {v ∈ R2 |hv, vi = %} √ = {v ∈ R2 | kvk = %},
!
· v = %}
217 also ein Kreis vom Radius √ %
√
%.
√ %
Allgemein: E ⊂ R2 ist Ellipse ⇔ ∃ T ∈ Gl(2; R) : E = T (K(1)). Beweis: ⇐“ Sei v ∈ E = T ((K1)) ⇔ T −1 v ∈ K(1) ⇔ kT −1 vk = 1 −1 2 ” 2 ⇔ kT vk = 1 = 1 ⇔ hT −1 v, T −1 vi = 1 ⇔ β(v, v) = 1 ⇔ v ∈ qβ−1 (1), wobei β(x, y) := hT −1 x, T −1 yi. Also haben wir zu E = T (K(1)) eine Bilinearform β mit qβ−1 (1) = E gefunden, d.h. E ist eine Ellipse. ⇒“ Sei nun β eine positiv definite symmetrische Bilinearform, E = qβ−1 (%) eine El! ” 1 0 0 0 0 lipse. W¨ ahle Basis B = (b1 , b2 ), so dass MB 0 (β) = . F¨ ur die Standardbasis 0 1 B = (e1 , e2 ) gilt nun: MB (β) = (TBB0 )t · MB 0 (β) · TBB0 = (TBB0 )t · TBB0 . v ∈ E = qβ−1 (%) ⇔ β(v, v) = % ⇔ v t MB (β) · v = % ⇔ v t · (TBB0 )t · TBB0 · v = % ⇔ (TBB0 · v)t · (TBB0 · v) = % √ ⇔ hTBB0 v, TBB0 vi = % ⇔ kTBB0 vk = % ⇔ k √1% TBB0 · vk = 1 ⇔ √1% TBB0 v ∈ K(1). −1 ∈ GL(2, R). 2 Also ist E = T (K(1)) mit T = √1% TBB0 27.26 Beispiel. T =
! a 0 ; a, b > 0; E = T (K(1)) ist Ellipse. 0 b
v ∈ E ⇔ T −1 v ∈ K(1) ⇔
v 2 1
a
+
v 2 2
b
= 1. qβ−1 (%)
b
a
−a
0 = qβ−1 (0)
−b Sei nun β eine negativ definite symmetrische Bilinearform. ⇒ −β ist eine positiv definite symmetrische Bilinearform. Daraus ergibt sich Folgendes: a) % > 0 : qβ−1 (%) = {v ∈ V | β(v, v) = %} = {v ∈ V | − β(v, v) = −%} = ∅; analog b) % = 0 : qβ−1 (0) = {0} sowie
218
Kapitel 27. Bilinearformen
c) % < 0 : qβ−1 (%) ist eine Ellipse.
K(1) kann durch Kosinus und Sinus parametrisiert werden: ) ( ! cos ϕ K(1) = ϕ ∈ R . sin ϕ cos(ϕ) sin(ϕ)
ϕ
K(1)
Also kann jede Ellipse E = T (K(1)) parametrisiert werden durch ) ( ! cos ϕ E= T· ϕ ∈ R . sin ϕ Sei nun β eine indefinite symmetrische Bilinearform auf R2 . W¨ ahle eine Basis B = (b1 , b2 ) von R2 so, dass ! 1 0 MB (β) = . 0 −1 qβ−1 (0) = {v ∈ R2 |v = v1 b1 + v2 b2 ,
v12 − v22 | {z }
= qβ (v) = 0}
(v1 +v2 )(v1 −v2 )
2
= {v ∈ R |v = v1 b1 + v2 b2 , v1 = v2 }
∪{v ∈ R2 |v = v1 b1 + v2 b2 , v1 = −v2 } = {t · (b1 + b2 )|t ∈ R} ∪ {t · (b1 − b2 )|t ∈ R}
Das ergibt offenbar zwei sich im Ursprung schneidende Geraden (ein Geraden” kreuz“): %>0:
%<0:
qβ−1 (%) = {v ∈ R2 |v = v1 b1 + v2 b2 , v12 − v22 = %} q 2 2 = v ∈ R |v = v1 b1 + v2 b2 , v1 = ± % + v2 qβ−1 (%)
=
q 2 v ∈ R |v = v1 b1 + v2 b2 , v2 = ± v1 − % 2
219 F¨ ur % 6= 0 nennt man qβ−1 (%) Hyperbel. Jede Hyperbel hat zwei Zweige, in obiger Beschreibung gegeben durch q q v ∈ R2 | v1 = + % + v22 und v ∈ R2 | v1 = − % + v21 im Fall % > 0; im Fall % < 0 analog.
! 1 0 27.27 Definition. F¨ ur β : R ×R → R, β(v, w) = v · ·w = v1 w1 −v2 w2 , 0 −1 heißt ( ! ) v 1 qβ−1 (1) = ∈ R2 |v12 − v22 = 0 =: H v2 2
2
t
die Standardhyperbel. Frage: K¨ onnen wir Hyperbeln ¨ ahnlich wie Ellipsen parametrisieren? 27.28 Definition. Die Funktion cosh : R → R,
cosh(t) =
1 t (e + e−t ), 2
heißt hyperbolischer Kosinus, die Funktion sinh : R → R,
sinh(t) =
1 t (e + e−t ), 2
heißt hyperbolischer Sinus. 27.29 Satz (Eigenschaften der hyperbolischen Funktionen). Es gilt f¨ ur alle t ∈ R: (i) cosh(t)2 − sinh(t)2 = 1
(ii) sinh0 = cosh, cosh0 = sinh (iii) sinh(−t) = − sinh(t),
cosh(−t) = cosh(t)
(iv) cosh(t) ≥ 1 (v) sinh : R → R ist bijektiv und streng monoton wachsend Beweis: (i) vorrechnen (ii) vorrechnen (iii) klar (iv) cosh(t) = =
1 t 1 −t e + e 2 2 ∞ ∞ 1 X tk 1 X (−t)k + 2 k! 2 k! k=0
=
k=0
∞ X t2l (2l)! l=0
=
∞
X t2l t0 + ≥ 1. 0! (2l)! |{z} k=1 | {z } =1 ≥0
220
Kapitel 27. Bilinearformen
(v) sinh0 (t) = cosh(t) ≥ 1 ⇒ sinh ist streng monoton wachsend, damit insbesondere injektiv. t→∞ e−t ) ≥ 21 et −→ ∞ F¨ ur t ≥ 0 ist sinh(t) = 21 (et − |{z} >0
⇒ lim sinh(t) = ∞. t→∞
Analog lim sinh(t) = −∞. t→−∞
Aus der ohnehin klaren Stetigkeit folgt damit auch die Surjektivit¨ at von sinh. 2
f (t) f = cosh 3 2 1
−2
−1
1
2
t
−1 −2 −3
f = sinh
27.30 Bemerkung. Die beiden Zweige der Standardhyperbel werden wie folgt parametrisiert: H=
(
cosh ϕ sinh ϕ
! ! ) ( ) − cosh ϕ ϕ ∈ R ∪ ϕ ∈ R sinh ϕ
cosh(ϕ) sinh(ϕ) |
ϕ −1
1
|
cosh(ϕ) Beweis: Wegen Satz 27.29 (i) liegt tats¨ achlich jeder Punkt der Form ±sinh(ϕ) auf H. p p Sei umgekehrt v ∈ H, d.h. v1 = ± 1 + v22 . Sei o.B.d.A. v1 = + 1 + v22 . Nach Satz 27.29 (v) existiert ein ϕ ∈ R mit sinh(ϕ) = v2 . Dann gilt f¨ ur cosh(ϕ) =
221 p
1 + sinh(ϕ)2 =
p
1 + v22 = v1 und somit cosh(ϕ) sinh(ϕ)
!
= v. 2
¨ ¨ 27.31 Bemerkung. Ahnlich wie f¨ ur Ellipsen zeigt man (siehe Ubung): H1 ⊂ R2 ist Hyperbel ⇔ ∃ T ∈ GL(2; R) : H1 = T (H). Also wird H1 wie folgt parametrisiert: ( ! ) ( ! ) cosh ϕ − cosh ϕ H1 = T · ϕ ∈ R ∪ T · ϕ ∈ R . sinh ϕ sin ϕ
Nun betrachten wir den Fall, dass β positiv semidefinit ist, aber nicht positiv definit und β 6= 0. W¨ ahle eine Basis b = (b1 , b2 ) von R2 so, dass ! 1 0 MB (β) = . 0 0 ⇒ qβ−1 (%) = {v ∈ R2 |v = v1 b1 + v2 b2 , 1 · v12 + 0 · v22 = %} a) % < 0 :
qβ−1 (%) = ∅
b) % = 0 : qβ−1 (%)
= {v ∈ R2 | v = v1 b1 + v2 b2 , v12 = 0}
= {t · b2 t ∈ R}. Das ist eine Gerade.
c) % > 0 : qβ−1 (%)
= {v ∈ R2 | v12 = %} √ = {v ∈ R2 | v1 = ± %} √ = {± % · b1 + t · b2 | t ∈ R}. Das sind zwei parallele Geraden. | {z } konstant
27.32 Satz. Sei V ein endlichdimensionaler K-Vektorraum, sei β : V × V → K eine nicht ausgeartete symmetrische Bilinearform. Sei l : V → K linear. Dann gibt es genau ein v ∈ V , so dass l(w) = β(v, w)
∀w ∈ V.
Beweis: Zu jedem v ∈ V ist lv : V → K mit lv (w) := β(v, w) linear, da β linear im zweiten Argument ist. Wir haben also eine Abbildung L : V → Hom(V, K) mit L(v) := lv . L ist linear, da β linear im ersten Argument ist. ker(L) = {v ∈ V | L(v) = 0}
= {v ∈ V | lv (w) = 0 ∀w ∈ V } = {v ∈ V | β(v, w) = 0 ∀w ∈ V }
= N (β) = {0}, da β nicht ausgeartet ist
222
Kapitel 27. Bilinearformen
⇒ L ist injektiv. dim Hom(V, K) = dim M (1 × n; K) = n = dim V ⇒ L ist ein Isomorphismus. Also gibt es zu l ∈ Hom(V, K) genau ein v ∈ V mit L(v) = l.
2
Im Rest dieses Abschnitts untersuchen wir
Kegelschnitte 27.33 Definition. Die symmetrische Bilinearform 1 .. . hhx, yii := xt · 1
−1
auf Rn heißt Minkowski-Produkt.
·y
27.34 Bemerkung. hh·, ·ii hat r+ = n − 1, r− = 1, r0 = 0. Die quadratische Form ist qhh·,·ii (x) = x21 + · · · + x2n−1 − x2n . hh·, ·ii spielt eine wichtige Rolle in Einsteins Relativit¨ atstheorie. Betrachte nun den Fall n = 3 und in R3 den Doppelkegel C
:= {x ∈ R3 |hhx, xii = 0} =
=
{x ∈ R3 |x23 = x21 + x22 }
x1 3
x ∈ R x3 = ±
x2 x3
C x2
x1
Frage: Wie sehen die Schnittmengen von C mit affinen Ebenen aus? Sei hierzu E0 ⊂ R3 ein 2-dimensionaler Untervektorraum und E = E0 + p eine
223 entsprechende affine Ebene, p ∈ R3 . E p E0 0
Um C ∩ E zu verstehen, m¨ ussen wir verschiedene F¨ alle unterscheiden. Fall I: β := hh·, ·ii|E0 ×E0 ist nicht ausgeartet (r0 = 0). In diesem Fall kann p ∈ E so gew¨ ahlt werden, dass hhx, pii = 0 ∀x ∈ E0 . BeweisSei p0 ∈ E zun¨ achst beliebig gew¨ ahlt. Dann ist l : E0 → R mit l(x) = hhx, pii linear. β ist nicht ausgeartet, also gibt es nacht Satz 27.32 ein y ∈ E0 , so dass l(x) = β(x, y) ⇒ hhx, p0 ii = hhx, yii ⇒ hhx, p0 − yii = 0
∀x ∈ E0 ∀x ∈ E0 ∀x ∈ E0 .
Setze also p := p0 − y.
Sei nun p ∈ E so gew¨ ahlt, dass hhx, pii = 0 ∀x ∈ E0 . Die Punkte aus E lassen sich als x + p, x ∈ E0 schreiben. Nun gilt: x+p
∈
C
⇔ 0 = hhx + p, x + pii = hhx, xii +2 hhx, pii +hhp, pii | {z } | {z } β(x,x)=qβ (x)
⇔x
=0
= qβ (x) + hhp, pii ∈ qβ−1 (−hhp, pii).
=⇒ C ∩ E = qβ−1 (−hhp, pii) + p. Behauptung: In der vorliegenden Situation sind ¨ aquivalent: (i) E = E0 , (ii) p = 0, (iii) hhp, pii = 0. Beweis:
(i) ⇒ (ii):
E = E0 ⇒ p ∈ E0 β(p, x) = 0 ∀ x ∈ E0 ; mit β nicht ausgeartet folgt p = 0.
224
Kapitel 27. Bilinearformen (ii) ⇒ (iii) trivial. (iii) ⇒ (i):
Sei hhp, pii = 0. W¨ are E 6= E0 , so w¨ are p ∈ / E0 . Dann w¨ are hhv, pii = 0 ∀v ∈ R3 , da E0 und p dann ganz R3 aufspannen. ⇒ p ∈ N (hh·, ·ii) = {0}, also p = 0 und damit ist doch E = E0 . 2 Fall I A: β ist positiv definit (r+ = 2, r− = 0). W¨ are hhp, pii > 0, so w¨ are p 6= 0 und damit p ∈ / E0 . Ein beliebiges v ∈ R3 ließe sich schreiben als v = t · p + x, t ∈ R, x ∈ E0 und es g¨ alte hhv, vii
= t2 hhp, pii + 2thhp, xii + hhx, xii = |{z} t2 hhp, pii + β(x, x) ≥ 0 | {z } | {z } ≥0
>0
≥0
Dann w¨ are also hh·, ·ii positiv semi-definit, ist es aber nicht; somit muss hhp, pii ≤ 0 und hhp, pii = 0 ⇔ p = 0 gelten. Fall I A/1: p = 0. Dann ist C ∩ E = qβ−1 (0) + 0 = qβ−1 (0) = {0}, also ein Punkt.
Fall I A/2: p 6= 0.
Dann ist hhp, pii < 0 und somit qβ−1 (−hhp, pii) eine Ellipse. | {z } >0
Fall I B: β ist indefinit (r+ = r− = 1). Fall I B/1: p = 0. Dann ist C ∩ E = qβ−1 (0) + 0, also ein Geradenkreuz. Fall IB/2: p 6= 0.
Dann ist hhp, pii 6= 0 und somit qβ−1 (−hhp, pii) eine Hyperbel.
Fall I C: β ist negativ definit (r+ = 0, r− = 2). Dieser Fall tritt nicht auf, da r− (hh·, ·ii) = 1.
Fall II: β ist ausgeartet Fall II A: β ist negativ semidefinit (r+ = 0, r− = 1, r0 = 1) oder (r+ = 0, r− = 0, r0 = 2). Dieser Fall tritt ebenfalls nicht auf, denn sonst w¨ are qhh·,·ii|E0 ≤ 0;
225
andererseits ist jedoch qhh·,·ii|E1 −{0} Nun ist
x1 > 0, wobei E1 = x2 x1 , x2 ∈ R . 0
dim(E0 ∩ E1 ) = dim(E0 ) + dim(E1 ) − dim(E0 + E1 ) ≥ 4 − 3 = 1, {z } | {z } | {z } | =2
=2
≤3
also g¨ abe es ein v ∈ E0 ∩ E1 , v 6= 0, und dann w¨ are einerseits qhh·,·ii(v) ≤ 0 und andererseits qhh·,·ii(v) > 0. Widerspruch! Fall II B: β ist positiv semi-definit, β 6= 0 (r+ = 1, r− = 0, r0 = 1). Nun kann p leider im Allgemeinen nicht mehr so gew¨ ahlt werden, dass hhx, pii = 0 ∀x ∈ E0 , denn Satz 27.32 kann ja nicht mehr angewandt werden. Wir k¨ onnen aber dennoch die Schnittmenge von p + E0 wie gehabt durch x + p ∈ C ⇔ 0 = hhx + p, x + pii = qβ (x) + l(x) + c beschreiben, wobei l(x) = 2hhx, pii und c = hhp, pii. Fall II B/1: E = E0 . W¨ ahle p = 0. Dann ist l = 0, c = 0 und damit C ∩ E = {x ∈ E0 |qβ (x) = 0}; Das ist eine Gerade. Fall II B/2: E 6= E0 . Dann ist p ∈ / E0 . Behauptung: ker(l) ∩ N (β) = {0}. Beweis: Sei x ∈ ker(l) ∩ N (β). Dann ist hhx, pii = 0 und hhx, yii = 0 ∀y ∈ E. Nun spannen E0 und p ganz R3 auf, also ist hhx, zii = 0 ∀z ∈ R3 ⇒ x ∈ N (hh·, ·ii) = {0}.
2
27.35 Definition. Sei β eine symmetrische Bilinearform auf R2 mit r+ = r0 = 1, r− = 0. Sei l : R2 → R linear mit ker(l) ∩ N (β) = {0}. Sei c ∈ R. Dann heißt {x ∈ R2 | qβ (x) + l(x) + c = 0} Parabel. Also ist im Fall II B/2 C ∩ E nach Definition eine Parabel.
226
Kapitel 27. Bilinearformen
Zur Begr¨ undung des Begriffs Parabel: 27.36 Lemma. Ist P ⊂ R2 eine Parabel, so gibt es eine Basis B = (b1 , b2 ) und Konstanten a, b, d, a 6= 0, so dass P = {x1 b1 + x2 b2 | x2 = a(x1 + b)2 + d}. Beweis:
W¨ ahle gem¨ aß Satz 27.22 eine Basis B so, dass ! 1 0 MB (β) = . 0 0
Dann gibt es α, β ∈ R, so dass l(x1 b1 + x2 b2 ) = αx1 + βx2 ∀ x1 , x2 ∈ R. Da N (β) = R · b2 = {x ∈ V | x1 = 0}, bedeutet ker(l) ∩ N (β) = {0} nichts anderes als β 6= 0. Sei x = x1 b1 + x2 b2 . Dann ist x ∈ P :⇔ 0 = qβ (x) + l(x) + c
⇔ α 2,d
:=
|
−b
α2 4
−c β .
x2
|
Setze a := − β1 , b :=
x2
= x21 + αx1 + βx2 + c α α2 = (x1 + )2 − + βx2 + c 2 4 α2 −c 1 α = − (x1 + )2 + 4 . β 2 β 2
d x1
Wir fassen zusammen: 27.37 Satz (Kegelschnitte). Sei C ⊂ R3 der Doppelkegel und E ⊂ R3 eine affine Ebene. Dann gibt es genau die folgenden M¨oglichkeiten: C ∩E Punkt {0} Ellipse Geradenkreuz Hyperbel Gerade Parabel
β r+ = 2, r− = r0 = 0 (positiv definit) r+ = 2, r− = r0 = 0 (positiv definit) r+ = r− = 1, r0 = 0 (indefinit) r+ = r− = 1, r0 = 0 (indefinit) r+ = r0 = 1, r− = 0 (positiv semidefinit) r+ = r0 = 1, r− = 0 (positiv semidefinit)
E E E E E E E
?
= E0 = E0 6= E0 = E0 6= E0 = E0 6= E0
Hier ist β := hh·, ·ii|E0 ×E0 , E = p + E0 , E0 ⊂ R3 Untervektorraum.
Kapitel 28
Euklidische Vektorr¨ aume 28.1 Definition. Sei V ein R-Vektorraum. Eine positiv definite symmetrische Bilinearform h·, ·i heißt (euklidisches) Skalarprodukt. Das Paar (V, h·, ·i) heißt dann euklidischer Vektorraum. n P xi y i = x t · n · y 28.2 Beispiel. a) V = Rn ; hx, yi = i=1
h·, ·i heißt Standardskalarprodukt auf Rn .
b) V = C 0 ([a, b], R) Rb hf, gi = f (x)g(x) dx a
28.3 Definition. Sei (V, h·, ·i) ein euklidischer Vektorraum. Dann heißt q p kxk := hx, xi = qh·,·i (x) Norm von x.
28.4 Proposition (Cauchy-Schwarz-Ungleichung). Sei (V, h·, ·i) ein euklidischer Vektorraum. Dann gilt ∀x, y ∈ V : |hx, yi| ≤ kxk · kyk. Die Gleichheit gilt genau dann, wenn x und y linear abh¨angig sind. Beweis: a) Ist x = 0 oder y = 0, so gilt es trivialerweise. Sei nun x 6= 0 und q 6= 0. b) Ist kxk = kyk = 1, so gilt 0 ≤ hx ± y, x ± yi = hx, xi ± hx, yi ± hy, xi + hy, yi
= kxk2 + 2hx, yi + kyk2 = 2 ± 2hx, yi ⇒ ∓hx, yi ≤ 1 ⇒ |hx, yi|
≤ kxk · kyk.
c) Seien kxk 6= 0, kyk 6= 0 beliebig. Dann ist
x
y
=1 ⇒ = 1, kxk kyk x b) y 1 1 , i = · |hx, yi| ⇒ 1 ≥ h kxk kyk kxk kyk ⇒ |hx, yi| ≤ kxk · kyk.
228
Kapitel 28. Euklidische Vektorr¨ aume
d) Diskussion zur Gleichheit (kxk 6= 0, kyk 6= 0): |hx, yi| = kxk kyk x y = 1 ⇔ , kxk kyk x ⇔0 = + kxk x 0 = − kxk x y ⇔ + = 0 oder kxk kyk y x − = 0 kxk kyk ⇔ kyk · x ± kxk · y = 0
y x y oder , + kyk kxk kyk y x y , − kyk kxk kyk
⇒ x, y sind linear abh¨ angig.
e) Sind umgekehrt x, y linear abh¨ angig (x 6= 0, y 6= 0), so ∃ α ∈ R : x = αy ⇒ |hx, yi|
= |hαy, yi|
⇒ |hx, yi|
= |α| kyk = kxk kyk.
= |α| · kyk2 ; kxk = kαyk p hαy, αyi = p α2 kyk2 = 2
28.5 Proposition (Eigenschaften der Norm). Sei (V, h·, ·i) ein euklidischer Vektorraum. Dann gilt: (i) kxk ≥ 0
∀x ∈ V,
(ii) kxk = 0 ⇔ x = 0, (iii) kα · xk = |α| · kxk, (iv) kx + yk ≤ kxk + kyk (Dreiecksungleichung).
Beweis:
(i) trivial (ii) x = 0 ⇒ qh·,·i (x) = 0 ⇒ kxk = 0; kxk = 0 ⇒ qh·,·i (x) = 0 ⇒ x = 0. (iii) kαxk = (iv)
p p hαx, αxi = α2 kxk2 = |α| kxk
kx + yk2
= = CSU
≤
⇒ kx + yk
= ≤
hx + y, x + yi
hx, xi + 2hx, yi + hy, yi kxk2 + 2kxk kyk + kyk2
(kxk + kyk)2 kxk + kyk.
229 Wir betrachten nun die Cauchy-Schwarz-Ungleichung |hx, yi| ≤ kxk · kyk genauer: hx,yi ≤ 1. Mit x 6= 0, y 6= 0 ergibt sich −1 ≤ kxk·kyk Nun ist die Funktion cos : [0, π] → [−1, 1] bijektiv, also ∃!α ∈ [0, π] : cos α = Wir haben somit die folgende 28.6 Definition. α ∈ [0, π] mit cos α =
hx,yi kxk kyk
hx,yi kxk kyk .
heißt Innenwinkel von x und y.
28.7 Notation. α =: ^(x, y) 28.8 Definition. x steht senkrecht auf y :⇔ hx, yi = 0. 28.9 Bemerkung. Falls x 6= 0, y 6= 0, so ist x senkrecht auf y ⇔ ^(x, y) =
π 2.
28.10 Notation. hx, yi = 0 ⇔: x ⊥ y 28.11 Beispiel. V = C 0 ([0, π], R) Rπ hf, gi = f (x)g(x)dx 0
f = sin x, g = cos x Rπ hsin, cosi = sin x cos xdx 0 π = 21 sin2 (x) 0 = 0
⇒ sin ⊥ cos
28.12 Notation (Kronecker’sches δ-Symbol). Ist I eine Menge, so schreibt man f¨ ur i, j ∈ I: ( 1, i = j δij := 0, i 6= j 28.13 Beispiel. I = {1, . . . , n} n = (δij )i,j=1,...,n Der Satz von Sylvester besagt f¨ ur einen euklidischen Vektoraum: 28.14 Satz. Ist (V, h·, ·i) ein n-dimensionaler euklidischer Vektorraum, so gibt es eine Basis B = (b1 , . . . , bn ) von V , so dass MB (h·, ·i) = , d.h. hbi , bj i = δij , ∀ i, j = 1, . . . n, d.h. kbi k = 1; bi ⊥ bj , falls i 6= j. 28.15 Definition. Eine solche Basis heißt Orthonormalbasis von V . Allgemeiner heißt (v1 , . . . , vk ) mit vi ∈ V Orthonormalsystem, wenn hvi , vj i = δij ∀ i, j = 1, . . . , k. 28.16 Lemma. Jedes Orthonormalsystem ist linear unabh¨angig. Beweis: Sei (v1 , . . . , vk ) ein Orthonormalsystem. Seien α1 , αk ∈ R, so dass α1 v1 + · · · + αk vk = 0. Dann gilt: 0 = h0, vi i
Also αi = 0 ∀ i = 1, . . . , k.
= hα1 v1 + · · · + αk vk , vi i
= α1 hv1 , vi i + · · · + αk hvk , vi i = αi · 1. 2
230
Kapitel 28. Euklidische Vektorr¨ aume
28.17 Lemma. Ist B = (b1 , . . . , bn ) eine Orthonormalbasis von V , dann gilt ∀ v ∈ V: n X v= hv, bi i · bi . i=1
Beweis:
Es gibt Koeffizienten αi ∈ R, so dass v = ⇒ hv, bj i
= =
*
n X
αi b i , b j
i=1 n X
n P
αi b i .
i=1
+
αi < b i , b j >
i=1
⇒v
= αj n X = hv, bi ibi . i=1
2 28.18 Definition. Sei (V, h·, ·i) ein euklidischer Vektorraum, sei U ⊂ V ein Untervektorraum. Dann heißt U ⊥ := {v ∈ V |v ⊥ u ∀u ∈ U } orthogonales Komplement von U . 28.19 Lemma. Sei (V, h·, ·i) ein endlichdimensionaler euklidischer Vektorraum, U ⊂ V ein Untervektorraum. Dann gilt: (i) U ⊥ ist ebenfalls ein Untervektorraum von V . (ii) V = U ⊕ U ⊥ . Beweis: (i) (UV1) 0 ∈ U ⊥ . (UV2) Seien v1 , v2 ∈ U ⊥ . Dann gilt ∀u ∈ U hv1 + v2 , ui = hv1 , ui + hv2 , ui = 0 ⇒ v1 + v2 ∈ U ⊥ . (UV3) Sei v ∈ U ⊥ , α ∈ R. Dann gilt ∀u ∈ U hαv, ui = αhv, ui = 0 ⇒ αv ∈ U ⊥ . (ii)
a) V = U + U ⊥ : Sei B = (b1 , . . . , br ) eine Orthonormalbasis von U . Sei v ∈ V . Setze u := r P hv, bi ibi ∈ U . Setze w := v − u.
i=1
Bleibt zu zeigen: w ∈ U ⊥ , d.h. ∀ x ∈ U : hw, xi = 0.
231 Sei also x ∈ U beliebig. Schreibe x = hw, xi
= =
= =
*
*
*
v − u, v− v,
r X i=1
=
r X i=1
= 0.
r X
j=1
i=1
αi bi . Dann ist
i=1
αi b i
i=1
r X
r X
r P
+
hv, bj ibj ,
αi b i
+
αi hv, bi i − αi hv, bi i −
−
r X
*
r X j=1
r X
i,j=1 r X i=1
αi b i
i=1
+
hv, bj ibj ,
r X
αi b i
i=1
+
αi hv, bj i hbj , bi i | {z } =δij
αi hv, bi i
b) U ∩ U ⊥ = {0} : Sei u ∈ U ∩ U ⊥ . Dann ist hu, ui = kuk2 = 0 ⇒ u = 0. 2 28.20 Notation. Man schreibt in diesem Fall auch V =U ⊥ U ⊥. 28.21 Bemerkung. Der Beweis f¨ ur (ii) verl¨ auft auch in dem Falle, dass V unendlichdimensional ist, ganz analog; nur der Satz von Sylvester steht uns hier nicht zur Verf¨ ugung. Man muss also erst noch die Existenz einer Orthonormalbasis zeigen. 28.22 Beispiel. V = R3 W
W
U
V =U ⊥ W
U
V =U ⊕W
28.23 Definition. Sei (V h·, ·i) ein endlichdimensionaler euklidischer Vektorraum und U ⊂ V Untervektorraum. Dann heißt die lineare Abbildung PU : V → V mit P |U = idU und P |U ⊥ = 0 Orthogonalprojektion auf U . 28.24 Bemerkung. a) Ist B1 = (b1 , . . . , br ) eine Orthonormalbasis von U und B2 = (br+1 , . . . , bn ) eine Orthonormalbasis von U ⊥ , dann ist B = (b1 , . . . , bn ) eine Orthonormalbasis von V .
232
Kapitel 28. Euklidische Vektorr¨ aume
b) Zu v ∈ V ist v
= =
n X
j=1 r X j=1
⇒ PU (v) =
r P
j=1
hv, bj ibj hv, bj ibj +
|
hv, bj ibj
{z
}
∈U
n X
j=r+1
|
hv, bj ibj {z
}
∈U ⊥
Frage: Wie bestimmt man eine Orthonormalbasis eines endlichdimensionalen euklidischen Vektorraums? Schmidt’sches Orthonormalisierungsverfahren. Sei (v1 , . . . , vn ) eine beliebige Basis von V . 1. Schritt: Setze: b1 :=
v1 kv1 k .
(k + 1)-ter Schritt: (b1 , . . . , bk ) ist ein Orthonormalsystem span(v1 , . . . , vk ). Setze nun bk+1
mit
span(b1 , . . . , bk )
vk+1 − Pspan(b1 ,...,bk ) (vk+1 ) kvk+1 − Pspan(b1 ,...,bk ) (vk+1 )k
:=
vk+1 −
=
kvk+1 −
k P
j=1 k P
j=1
hvk+1 , bj ibj
hvk+1 , bj ibj k.
28.25 Beispiel. V = {f ∈ R[x]|grad(f ) ≤ 2} dim(V ) = 3 v1 = 1; v2 = x; v3 = x2 . (v1 , v2 , v3 ) ist eine Basis von R2 [x]. R1 hf, gi = f (x)g(x) dx 0
1. Schritt: b1 :=
v1 kv1 k
2. Schritt: b2 :=
v2 −hv2 ,b1 ib1 kv2 −hv2 ,b1 ib1 k
=
1 k1k
= 1. kv1 k2 = hv1 , v1 i =
Wir bestimmen hv2 , b1 i = b2 =
v2 − 12 b1 kv2 − 21 b1 k
=
x− 12 kx− 12 k
Wir bestimmen
x − ⇒ kx −
1 2k
=
1 √ , 2 3
R1 0
R1 0
v1 (x)2 dx = 1 .
x · 1 dx = 12 , also
2 1
2
=
Z1 0
=
also
√ √ b2 = 2 3 x − 21 = 3(2x − 1).
3
1 x− 2 2
2
dx =
x x x − + 3 2 4
1 0
Z1 0
=
x2 − x +
1 dx 4
1 1 1 1 − + = . 3 2 4 12
=
233 3. Schritt: b3 :=
v3 −hv3 ,b1 ib1 −hv3 ,b2 ib2 kv3 −hv3 ,b1 ib1 −hv3 ,b2 ib2 k.
< v 3 , b1 > =
Z1
x2 · 1 dx =
< v 3 , b2 > =
Z1
Z √ √ √ 3 · 2x3 − 3 dx x · 3(2x − 1) dx =
0
0
=
1
2
x3 x4 − 2 3
v3 − hv3 , b1 ib1 − hv3 , b2 ib2 = x2 − = x2 − 31 − x + 12 = x2 − x + 61
2
x − x +
2 1
6
=
Z1
=
Z1
0
0
1 3
1
1 3
0
0
1√ 3 = 6
·1−
√ √ 3 3(2x 6
1 x −x+ 6 2
x4 − 2x3 +
2
− 1)
dx
1 1 x2 − x + x2 + dx 3 3 36
1 1 1 1 1 1 + + − + − 5 3 36 2 9 6 60 5 90 20 30 1 36 + + − + + = = 180 180 180 180 180 180 180 √ x2 − x + 16 1 2 q b3 = = 180 x − x + 6 1 =
180
234
Kapitel 28. Euklidische Vektorr¨ aume
Kapitel 29
Orthogonale Endomorphismen Sei in diesem Abschnitt (V, h·, ·i) stets ein endlichdimensionaler euklidischer Vektorraum. 29.1 Definition. ϕ ∈ End(V ) heißt orthogonal, falls ∀v, w ∈ V gilt: hϕ(v), ϕ(w)i = hv, wi.
29.2 Lemma. Seien ϕ, ψ ∈ End(V ) orthogonal. Dann gilt f¨ ur alle v, w ∈ V : (i) kϕ(v)k = kvk (ii) v ⊥ w ⇒ ϕ(v) ⊥ ϕ(w) (iii) Falls v 6= 0, w 6= 0 : ^(ϕ(v), ϕ(w)) = ^(v, w) (die Abbildung ist winkeltreu). (iv) ϕ ist ein Isomorphismus und ϕ−1 ist ebenfalls orthogonal. (v) ϕ ◦ ψ ist orthogonal. (vi) Ist λ ∈ R ein Eigenwert von ϕ, so ist λ = ±1. Beweis: (i) folgt direkt aus der Definition mit v = w. (ii) klar, denn v ⊥ w ⇒ hv, wi = 0 ⇒ hϕ(v), ϕ(w)i = 0 ⇒ ϕ(v) ⊥ ϕ(w). hϕ(v),ϕ(w)i (iii) ^(ϕ(v), ϕ(w)) = arccos kϕ(v)k·kϕ(w)k (i) hv,wi = arccos kvk·kwk = ^(v, w)
(i)
(iv) ϕ ist injektiv, denn v ∈ ker(ϕ) ⇒ kvk = kϕ(v)k = k0k = 0, also ker(ϕ) = {0}. V ist endlichdimensional ⇒ ϕ ist ein Isomorphismus.
Sind v, w ∈ V , so ist hϕ−1 (v), ϕ−1 (w)i hv, wi, d.h. ϕ−1 ist orthogonal.
ϕ orth.
=
hϕ(ϕ−1 (v)), ϕ(ϕ−1 (w))i =
236
Kapitel 29. Orthogonale Endomorphismen
(v) (ϕ ◦ ψ)(v), (ϕ ◦ ψ)(w) = ϕ(ψ(v)), ϕ(ψ(w)) ϕ orth.
=
hψ(v), ψ(w)i
ψ orth.
=
hv, wi
(vi) Ist v 6= 0 Eigenvektor zum Eigenwert λ, so gilt kvk = kϕ(v)k = kλvk = |λ| · kvk ⇒ |λ| = 1. 2 29.3 Bemerkung. (iv) und (v) besagen, dass {ϕ ∈ End(V ) | ϕ orthogonal} eine Untergruppe von Iso(V ) ist. 29.4 Definition. O(V ) := {ϕ∈ End(V ) | ϕ orthogonal} heißt orthogonale Gruppe von V genauer: von (V, h·, ·i) . SO(V ) := {ϕ ∈ O(V ) | det(ϕ) > 0} heißt speziell-orthogonale Gruppe von V . Warnung: Ist U ( V Untervektorraum, dann ist die Orthogonalprojektion PU nicht orthogonal, denn ker(PU ) = U ⊥ 6= {0}. (Ist U = V , dann ist PU = idV und somit orthogonal.) Frage: Wie sieht man einer darstellenden Matrix MB (ϕ) an, ob ϕ orthogonal ist? Sei dazu B = (b1 , . . . , bn ) eine Orthonormalbasis von V . Seien v, w ∈ V . Schreibe: = x 1 b1 + · · · + x n bn , = y 1 b1 + · · · y n bn . y1 x1 . . n . . x := . , y := . ∈ R yn xn v w
Dann gilt:
hv, wi = xt · y. Ist A = MB (ϕ), so ist hϕ(v), ϕ(x)i
= (Ax)t · (Ay)
= xt · At · A · y, also
ϕ orthogonal ⇔ xt · At · A · y = xt y ∀x, y ∈ Rn ⇔ At · A = n , denn f¨ ur C, D ∈ M (n × n; R) gilt: C = D ⇒ xt · C · y = xt · D · y ∀x, y ∈ Rn t ⇒ ei · C · ej = eti · D · ej ∀ i, j = 1, . . . , n, und das liefert jeweils genau den (i, j)-ten Eintrag von C bzw D =⇒ C = D ⇔ xt · C · y = xt · D · y ∀x, y ∈ Rn . 29.5 Definition. Eine Matrix A ∈ M (n × n; R) heißt orthogonal, falls At · A = O(n) : = {A ∈ M (n × n; R) | At · A = SO(n) : = {A ∈ O(n) | det(A) > 0}
n.
n}
Wir haben gezeigt: Ist B eine Orthonormalbasis, so ist ϕ orthogonal genau dann, wenn MB (ϕ) orthogonal ist.
237 29.6 Lemma. Ist A ∈ M (n × n; R), so sind ¨aquivalent: i) A ist orthogonal. ii) Die Spalten von A bilden eine Orthonormalbasis von Rn bez¨ uglich des Standardskalarproduktes. iii) Die Transponierten der Zeilen von A bilden eine Orthonormalbasis von R n bez¨ uglich des Standardskalarproduktes. Beweis: a) i) ⇔ ii) Schreibe A = (b1 , . . . , bn ). n
⇔ bti · bj = δij =
At · A =
∀i, j = 1, . . . , n
hbi , bj i b)
Behauptung: A orthogonal ⇔ At orthogonal. Beweis: ⇒“ A orthogonal, d.h. At · A = n ”t −1 ⇒A =A ⇒ (At )t · At = A · At = A · A−1 = n ⇒ At orthogonal. ⇐“ At orthogonal ⇒ (At )t orthogonal; mit (At )t = A folgt: A orthogo” nal. 2 a)
c) i) ⇔ iii) A ist orthogonal ⇒ At ist orthogonal ⇔ Die Spaltenvektoren von At bilden eine Orthonormalbasis von Rn ⇔ Die Transpornierten der Zeilenvektoren von A bilden eine Orthonormalbasis von Rn . 2 29.7 Beispiel. n = 1: A = (a) orthogonal ⇔ (a2 ) = At · A = 1 = (1) ⇔ a2 = 1 ⇔ a = ±1 O(1) = {(1), (−1)}, SO(1) = {(1)} (triviale Gruppe) 29.8 Beispiel. n = 2: SO(2) = {M (Rθ ) | θ ∈ R} M (Rθ ) =
cos θ sin θ
− sin θ cos θ
!
O(2) = S0(2) ∪ {M (Sθ ) | θ ∈ R} M (Sθ ) =
cos(2θ) sin(2θ)
− sin(2θ) cos(2θ)
Warum immer 2θ? Wir interpretieren geometrisch:
!
238
Sei vθ :=
Kapitel 29. Orthogonale Endomorphismen ! cos θ , wθ := sin θ
! − sin θ . Dann ist cos θ
M (Sθ ) · vθ
= = =
cos(2θ) sin(2θ)
sin(2θ) − cos(2θ)
!
cos(θ) sin(θ)
!
cos(2θ) cos(θ) + sin(2θ) sin(θ) sin(2θ) cos(θ) − cos(2θ) sin(θ) ! cos(2θ − θ) sin(2θ − θ)
!
= vθ und = −wθ (selber nachrechnen!)
M (Sθ ) · wθ
Das beschreibt die Spiegelung an der Achse R · vθ . v
βwθ
wθ vθ
αvθ
Sθ (v) Frage: Wie sehen die orthogonalen Matrizen f¨ ur n ≥ 3 aus? 29.9 Lemma. Ist ϕ ∈ O(V ) und ist W ⊂ V ein ϕ-invarianter Untervektorraum, dann ist W ⊥ ebenfalls ein ϕ-invarianter Untervektorraum. Beweis: W ist ϕ-invariant ⇒ ϕ(W ) ⊂ W. ϕ ist ein Isomorphismus und W ist endlichdimensional ⇒ ϕ(W ) = W. Sei v ∈ W ⊥ ; z.Z. ϕ(v) ∈ W ⊥ , d.h. ∀w ∈ W : hϕ(v), wi = 0. Sei w ∈ W beliebig, aber fest. W¨ ahle w0 ∈ W so, dass ϕ(w0 ) = w. 3
3
Dann ist hϕ(v), wi = hϕ(v), ϕ(w 0 )i = h v , w0 i = 0.
2
W⊥ W
29.10 Lemma. Ist ϕ ∈ O(V ), so besitzt V einen ϕ-invarianten Untervektorraum W der Dimension 1 oder 2. Beweis: a) Setze ψ := ϕ + ϕ−1 ∈ End(V ). Dann gilt f¨ ur alle v, w ∈ V : hψ(v), wi
= hϕ(v), wi + hϕ−1 (v), wi
= hϕ−1 (ϕ(v)), ϕ−1 (w)i + hϕ(ϕ−1 (v)), ϕ(w)i = hv, ϕ−1 (w)i + hv, ϕ(w)i
= hv, ψ(w)i.
239 ψ ist also selbstadjungiert (siehe Kapitel 30). In jenem Abschnitt werden wir auch zeigen, dass es dann eine Orthonormalbasis B = (b1 , . . . , bn ) von V gibt mit ψ(bj ) = λj bj mit λj ∈ R. b) Setze W := span{b1 , ϕ(b1 )}. Dann ist dim W ∈ {1, 2}. Wir zeigen nun: W ist ϕ-invariant. ϕ(µb1 + νϕ(b1 )) = µϕ(b1 ) +νϕ2 (b1 ); | {z } ∈W
Bleibt zu zeigen ϕ2 (b1 ) ∈ W.
ϕ2 (b1 ) = ϕ(ϕ(b1 ) + ϕ−1 (b1 ) − ϕ−1 (b1 )) = ϕ(ψ(b1 )) − ϕ(ϕ−1 (b1 )) = ϕ(λ1 b1 ) − b1 = λ1 ϕ(b1 ) − b1 ∈ W.
2 29.11 Satz. Ist ϕ ∈ 0(V ), so gibt es eine Orthonormalbasis B von V , so dass
MB (ϕ) =
1 ..
. 1 −1
..
. −1
A1 ..
. Ax
wobei Aj = M (Rθj ) mit θj ∈ R. Beweis:
,
Vollst¨ andige Induktion nach n = dim V :
n = 1: klar. n = 2: Falls det(ϕ) > 0, so gibt es eine Orthonormalbasis B von V mit MB (ϕ) = M (Rθ ) f¨ ur ein θ ∈ R. Falls det(ϕ) < 0, so gibt es zun¨ achst eine Orthonormalbasis B 0 von V 0 mit MB (ϕ) = M (Sθ ). Wie wir jedoch in unserer geometrischen Interpretation festgestellt haben, k¨ onnen wir die Basis B = (vθ , wθ ) w¨ ahlen und erhalten ! 1 0 MB (ϕ) = . 0 −1 n ≥ 3: Sei W gem¨ aß Lemma 29.10 ein ϕ-invarianter Untervektorraum von V mit der Dimension 1 oder 2. Dann ist nach Lemma 29.9 W ⊥ ebenfalls ein ϕ-invarianter Untervektorraum.
240
Kapitel 29. Orthogonale Endomorphismen Nach der Induktionsannahme (d.h. dass der Satz f¨ ur alle Dimensionen kleiner als n gelte) gibt es nun eine Orthonormalbasis B1 von W ⊥ mit 1 .. . 1 −1 .. . MB1 (ϕ|W ⊥ ) = . −1 A1 .. . Ak Ebenso gibt es eine Orthonormalbasis B2 von W mit
MB2 (ϕ|W ) = (±1), MB2 (ϕ|W ) = M (Rθ ) oder MB2 (ϕ|W ) =
! 1 0 . 0 −1
Setze nun B1 und B2 zur Orthonormalbasis B von V zusammen. Dann ist ! 0 MB1 (ϕ|W ⊥ ) . MB (ϕ) = 0 MB (ϕ|W ) Eventuelle Vertauschung der Basisvektoren u uhrt die Matrix in die ¨berf¨ gew¨ unschte Form. 2 29.12 Beispiel. n = 3. ! 1 0 0 1 0 , 0 1 0 = 0 M (R0 ) 0 0 1 −1 0 0 1 0 0 ahnlich zu 0 1 0 = 0 1 0 ist ¨ 0 0 1 0 0 −1 ! 1 0 0 1 0 und 0 −1 0 = 0 M (Rπ ) 0 0 −1 ! −1 0 0 −1 0 . 0 −1 0 = 0 M (Rπ ) 0 0 −1
! −1 0 , 0 M (R0 )
Im Wesentlichen treten also nur die beiden F¨ alle auf: ! ! −1 0 1 0 . MB (ϕ) = oder MB (ϕ) = 0 M (Rθ ) 0 M (Rθ ) Ist det(ϕ) > 0 und ist B ur welche ! = (b1 , b2 , b3 ) diejenige Orthonormalbasis von V , f¨ 1 0 , so heißt die Gerade R · b1 = Eig(ϕ, 1) Drehachse von ϕ, θ MB (ϕ) = 0 M (Rθ ) heißt Drehwinkel von ϕ.
241
b1 b2 θ b3
0 − sin(θ) cos(θ)
0 − sin(θ) 1 0 0 cos(θ)
1 0 R1 (θ) := 0 cos(θ) 0 sin(θ) cos(θ) R2 (θ) := 0 sin(θ)
cos(θ) R3 (θ) := sin(θ) 0
− sin(θ) cos(θ) 0
0 0 1
29.13 Satz. SO(3) = {R1 (α) · R2 (β) · R1 (γ) | α, β, γ ∈ R}. Beweis: ⊃“ klar. ” ⊂“: Sei A ∈ SO(3). Schreibe A = (a1 , a2 , a3 ). ” W¨ ahle nun ϕ ∈ R so, dass ∗ Dann ist R1 (ϕ) · A = 0 ∗
∗ R1 (ϕ) · a1 keinen e2 -Anteil hat, also R1 (ϕ) · a1 = 0. ∗ ∗ ∗ ∗ ∗ . ∗ ∗
∗ 0 ∗ t R1 (ϕ)A = ∗ ∗ ∗ = At R1 (ϕ)t = At R1 (−ϕ) =: (b1 , b2 , b3 ) ∗ ∗ ∗
W¨ ahle nun ψ so, dass R1 (ψ)b2 = e2 . (Dies ist m¨ oglich, da b2 ein Einheitsvektor ist und in der e1 -e2 -Ebene liegt.) ∗ 0 ∗ Dann ist R1 (ψ)At R1 (−ϕ) = ∗ 1 ∗ =: (c1 , c2 , c3 ). ∗ 0 ∗
242
Kapitel 29. Orthogonale Endomorphismen
∗ Da c1 ⊥ c2 = e2 , folgt c1 = 0, ebenso c3 . Somit ergibt sich ∗ ∗ 0 ∗ R1 (ψ)At R1 (−ϕ) = 0 1 0 . ∗ 0 ∗
Nun bildet (c1 , c3 ) eine Orthonormalbasis der e1 -e2 -Ebene. W¨ ahle also χ ∈ R so, dass R2 (χ)c1 = e1 . Dann muss R2 (χ)c3 = ±e3 sein. Damit ist schon mal 1 0 0 R2 (χ)R1 (ψ)At R1 (−ϕ) = 0 1 0 . 0 0 ±1 Aus A ∈ SO(3) ⇒ det(A) = det R2 (χ)R1 (ψ)At R1 (−ϕ) = 1 folgt 1 0 0 R2 (χ)R1 (ψ)At R1 (−ϕ) = 0 1 0 , also 0 0 1 A−1 = At = R1 (−ψ)R2 (−χ)R1 (ϕ) ⇒
A = R1 (−ϕ)R2 (χ)R1 (ψ).
Setze also α := −ϕ, β := χ, γ := ψ.
2
29.14 Definition. Die Zahlen α, β, γ heißen Euler’sche Winkel von A = R1 (α)R2 (β)R1 (γ). 29.15 Bemerkung. Im Allgemeinen sind ide Euler’schen Winkel nicht eindeutig durch A bestimmt, z.B. bei β = 0: A = R1 (α)R1 (γ) = R1 (α + γ) = R1 (α + δ − δ + γ) = R1 (α + δ)R1 (γ − δ).
Kapitel 30
Selbstadjungierte Endomorphismen Wir f¨ uhren zun¨ achst das komplexe Analogon zu euklidischen Vektorr¨ aumen ein: 30.1 Definition. Sei V ein komplexer Vektorraum. Eine Abbildung h:V ×V →C ur alle α, β ∈ C und f¨ ur alle v, v1 , v2 , w, w1 , w2 ∈ V heißt Sesquilinearform, falls f¨ gilt: h(αv1 + βv2 , w) = αh(v1 , w) + βh(v2 , w) ¯ h(v, αw1 + βw2 ) = α ¯ h(v, w1 ) + βh(v, w2 ) .
(30.1) (30.2)
Eine Sesquilinearform heißt symmetrisch oder hermitesch, falls gilt: h(v, w) = h(w, v)
∀v, w ∈ V .
Eine symmetrische Sequilinearform heißt positiv definit, falls gilt: h(v, v) > 0 ∀v ∈ V − {0} . 30.2 Beispiel. Auf V = Cn definiert h(v, w) :=
i=1
Bilinearform. Es gilt f¨ ur alle v 6= 0: h(v, v) =
n X i=1
n P
vi · v¯i =
n X i=1
vi · w¯i eine symmetrische
|vi |2 > 0
Somit ist h positiv definit. Man bezeichnet diese Form als Standard-Sesquilinearform auf Cn . Wie im euklidischen Fall sieht man: Ist h : V × V → C eine positiv definite, symmetrische Sesquilinearform, so ist p kvk := h(v, v) eine Norm auf V . Ebenfalls wie im euklidischen Fall hat man die Cauchy-SchwarzUngleichung: |h(v, w)| ≤ kvk · kwk F¨ ur eine Basis B = (b1 , . . . , bn ) von V sei
MB (h) := h(bi , bj )
i,j=1,...,n
.
244
Kapitel 30. Selbstadjungierte Endomorphismen
30.3 Definition. Eine positiv definite, hermitesche Sesquilinearform H auf einem C-Vektorraum V heißt Skalarprodukt. Ein Tupel (V, h) bestehend aus einem CVektorraum V und einem Skalarprodukt h heißt unit¨arer Vektorraum. 30.4 Definition. (V, h) ein unit¨arer Vektorraum. Eine Basis B = (b1 , . . . , bn ) heißt Orthonormalbasis, kurz: ONB, falls gilt: h(bi , bj ) = δij
∀i, j = 1, . . . , n .
30.5 Bemerkung. Jeder endlich-dimensionale unit¨ are Vektorraum besitzt eine Orthonormalbasis. 30.6 Definition. Sei (V, h·, ·i) ein euklidischer oder unit¨ arer Vektorraum. Ein Endomorphismus ϕ ∈ End(V ) heißt selbstadjungiert, falls gilt: hϕ(v), wi = hv, ϕ(w)i
∀v, w ∈ V .
30.7 Bemerkung. Sei B = (b1 , . . . , bn ) eine Orthonormalbasis eines unit¨ aren Vektorraumes V , sei ϕ ∈ End(V ) und sei A := MB (ϕ). Seien v, w ∈ V , dargestellt bzgl. B als n n X X y i bi xi b i , w= v= i=1
i=1
Seien x, y ∈ C die zugeh¨ origen Koordinatenvektoren, d.h. x1 y1 . . . . x := . , y := . . xn yn n
Dann erhalten wir bzgl. des Standard-Skalarproduktes h·, ·i auf Cn : hϕ(v), wi =(A · x)t · y = xt · At · y¯ hv, ϕ(w)i = xt · A · y = xt · A¯ · y¯ Somit gilt: A ist selbstadjungiert ⇔ xt · At · y¯ = xt · A¯ · y¯ ∀x, y ∈ Cn ⇔ xt · At · y = xt · A¯ · y ∀x, y ∈ Cn ⇔ At = A¯ ¯ 30.8 Definition. Eine Matrix A ∈ M (n×n; C) heißt hermitesch, falls gilt: At = A. 30.9 Bemerkung. Wir hatten in Kapitel 29 gezeigt: Ist V ein euklidischer Vektorraum, so gilt: ϕ symmetrisch ⇔ A = MB (ϕ) symmetrisch Analog folgt aus obiger Bemerkung: Ist V ein unit¨ arer Vektorraum, so gilt: ϕ selbstadjungiert ⇔ A = MB (ϕ) symmetrisch. 30.10 Definition. F¨ ur A ∈ M (n × n; C) nennt man A∗ := A¯t die Adjungierte von A.
245 30.11 Bemerkung. Offensichtlich gilt f¨ ur ϕ ∈ End(V ) und A = MB (ϕ): ϕ selbstadjungiert ⇔ A∗ = A
30.12 Lemma. Sei (V, h·, ·i) unit¨ar und ϕ ∈ End(V ) selbstadjungiert. Dann sind alle Eigenwerte von ϕ reell. Beweis:
Sei λ ein Eigenwert von ϕ mit Eigenwert v. Dann gilt: ¯ hϕ(v), vi = hv, ϕ(v)i = hλv, vi = hv, λvi = λkvk = λkvk .
¯ und folglich λ ∈ R. Somit ist λ = λ
2
30.13 Lemma. Sei (V, h·, ·i) ein euklidischer oder unit¨arer Vektorraum, und sei ϕ ∈ End(V ) selbstadjungiert. Sind λ 6= µ Eigenwerte von ϕ, so gilt: Eig(ϕ, λ) ⊥ Eig(ϕ, µ) . Beweis: Sei v ein Eigenvektor von ϕ zum Eigenwert λ und w ein Eigenvektor von ϕ zum Eigenwert µ. Dann gilt: λhv, wi = hλv, wi = hϕ(v), wi = hv, ϕ(w)i = hv, µwi = µhv, wi Somit ist (λ − µ)hv, wi = 0, und da (λ − µ) 6= 0, folgt hv, wi = 0, also v ⊥ w.
2
30.14 Satz. Sei (V, h·, ·i) ein endlich-dimensionaler euklidischer oder unit¨arer Vektorraum, und sei ϕ ∈ End(V ) selbstadjungiert. Dann besitzt V eine Orthonormalbasis bestehend aus Eigenvektoren von V . Insbesondere ist V diagonalisierbar. Beweis: a) Sei zun¨ achst (V, h·, ·i) unit¨ ar. Nach dem Fundamentalsatz der Algebra zerf¨ allt das charakteristische Polynom Pϕ in Linearfaktoren: Pϕ (t) = (λ1 − t) · . . . · (λn − t) Sei nun v1 ein Eigenvektor zum Eigenwert λ1 . Ohne Einschr¨ ankung sei kvk = 1 (ansonsten ersetze v durch kvv11 k ). Setze nun W := span(v1 )⊥ ⊂ V . Behauptung: W ist ϕ-invariant. Beweis: Sei w ∈ W , d.h. hw, v1 i = 0. Dann erhalten wir: ¯ hϕ(w), v1 i = hw, ϕ(v1 )i = hw, λ1 v1 i = λhw, v1 i = 0 .
Somit ist ϕ(w) ⊥ v1 , und W ist ϕ-invariant. Nach Satz ?? ist dann die Einschr¨ ankung ϕ|W ebenfalls selbstadjungiert. W¨ ahlt man nun induktiv eine ONB (v2 , . . . , vn ) von W bestehend aus Eigenvektoren von ϕ|W , so ist B = (v1 , v2 , . . . , vn ) eine ONB von V bestehend aus Eigenvektoren von ϕ . b) Sei nun (V, h·, ·i) euklidisch. Es gen¨ ugt zu zeigen, daß Pϕ u ¨ber R in Linearfaktoren zerf¨ allt. W¨ ahle dazu irgendeine ONB von V . Setze A := MB (ϕ) ∈ M (n × n; R). Da ϕ selbstadjungiert und B eine ONB ist, gilt At = A. Da A eine Matrix mit reellen Eintr¨ agen ist, gilt auch A¯ = A, somit ist A∗ = A. Wir k¨ onnen also A als hermitesche Matrix betrachten, das bedeutet: der Endomorphismus φ : Cn → Cn , φ(x) := A · x ist selbstadjungiert bzgl. des Standard-Skalarproduktes von Cn . Nach dem Fundamentalsatz der Algebra zerf¨ allt das charakteristische Polynom Pφ in Linearfaktoren Pϕ (t) = (λ1 − t) · . . . · (λn − t) ,
und da A selbstadjungiert ist, sind nach Lemma 30.12 alle Eigenwerte λ1 . . . λn reell. Somit zerf¨ allt wie behauptet Pϕ = PA = Pφ u ¨ber R in Linearfaktoren.
246
Kapitel 30. Selbstadjungierte Endomorphismen 2
30.15 Korollar. Sei (V, h·, ·i) ein endlich-dimensionaler euklidischer oder unit¨arer Vektorraum und ϕ ∈ End(V ) selbstadjungiert. Dann ist ϕ diagonalisierbar, alle Eigenwerte λ1 , . . . , λk von ϕ sind reell, und es gilt: V = Eig(ϕ, λ1 ) ⊕ . . . ⊕ Eig(ϕ, λk ) .
Kapitel 31
Unit¨ are Endomorphismen In diesem Kapitel sei immer (V, h·, ·i) ein endlich-dimensionaler unit¨ arer Vektorraum. 31.1 Definition. Ein Endomorphismus ϕ ∈ End(V ) heißt unit¨ar, falls f¨ ur alle v, w ∈ V gilt: hϕ(v), ϕ(w)i . 31.2 Bemerkung. Analog zum euklidischen Fall zeigt man: ~ kϕ(v)k = kvk ∀v ∈ V . ~ v ⊥ w ⇒ ϕ(v) ⊥ ϕ(w). ~ ϕ ist unit¨ ar ⇒ ϕ ist ein Automorphismus und ϕ−1 ist unit¨ ar. ~ Sind ϕ, ψ unit¨ ar, so ist auch ϕ ◦ ψ unit¨ ar. ~ Ist λ ∈ C Eigenwert eines unit¨ aren Endomorphismus ϕ, so ist |λ| = 1. ~ Ist B eine ONB von V und A = MB (ϕ), so gilt: ϕ unit¨ ar ⇔ A∗ · A = 31.3 Definition. Die Menge U (V ) := {ϕ ∈ End(V ) | ϕunit¨ ar} aller unit¨ aren Endomorphismen von V heißt unit¨are Gruppe von V . Die Menge SU (V ) := {ϕ ∈ U (V ) | det(ϕ) = 1} heißt spezielle unit¨are Gruppe von V . Die Menge U (n) := {A ∈ M (n × n; C) | A∗ · A =
aller unit¨ aren Matrizen heißt unit¨are Gruppe. Die Menge SU (n) := {A ∈ U (n) | det(A) = 1}
n}
heißt spezielle unit¨are Gruppe.
31.4 Beispiel. F¨ ur n = 1 gilt: U (1) = {A ∈ M (1 × 1; C) | A∗ A = = {(a) | a ∈ C, a ¯a = 1}
1}
= {(a) | a ∈ C, |a| = 1} SU (1) = {(1)} ist die triviale Gruppe
n.
248
Kapitel 31. Unit¨ are Endomorphismen
31.5 Satz. Sei ϕ ∈ U (V ). Dann existiert eine ONB von V bestehend aus Eigenvektoren von V . Insbesondere ist ϕ diagonalisierbar. Beweis: (a) Das charakteristische Polynom Pϕ zerf¨ allt nach dem Fundamentalsatz der Algebra in Linearfaktoren: Pϕ (t) = (λ1 − t) · . . . · (λn − t) Sei v1 ein Eigenvektor von ϕ zum Eigenwert λ1 , und ohne Einschr¨ ankung sei kv1 k = 1. Setze W := span(v1 )⊥ . (b) Behauptung: W ist ein ϕ-invarianter Untervektorraum von V . Beweis: Sei w ∈ W , d.h. hw, v1 i = 0. Dann erhalten wir: hϕ(w), v1 i = hϕ(w), ϕ(ϕ−1 (v1 ))i = hw, ϕ−1 (v1 )i 1 = hw, v1 i λ1 1 = ¯ hw, v1 i λ1 = 0.
Somit ist ϕ(w) ⊥ v1 und W ist ϕ-invariant. (c) Nach Satz ?? ist mit ϕ auch ϕ|W unit¨ ar. W¨ ahlt man nun induktiv eine ONB (v2 , . . . , vn ) von W aus Eigenvektoren von ϕ|W , so ist B = (v1 , v2 , . . . , vn ) eine ONB von V bestehend aus Eigenvektoren von V . 2
Kapitel 32
Dualr¨ aume 32.1 Definition. Sei K ein beliebiger K¨ orper, und sei V ein K-Vektorraum. Dann heißt V ∗ := Hom(V ; K) = {ϕ : V → K | ϕ linear} der Dualraum von V . Die Elemente von V ∗ heißen Linearformen auf V . 32.2 Beispiel. Sei K = R, V = C 0 ([a, b]; R) mit a < b. Die Abbildungen ϕ, ψ : V
→
ϕ(f )
:=
R Zb
f (x)dx
a
ψ(f ) := f (a) sind Elemente von V ∗ . 32.3 Bemerkung. Ist dim(V ) < ∞, so ist dim(V ∗ ) = dim(V ) · dim(K). | {z } =1
Beweis: durch:
Sei B = (b1 , . . . , bn ) eine Basis von V . Definiere b∗j ∈ V ∗ , j = 1, . . . , n b∗j (bk )
= δjk ,
d.h.
b∗j (
n X
αk b k ) = α k .
k=1
Dann sind b∗1 , . . . , b∗n ∈ V ∗ und wir zeigen:
2
32.4 Lemma. B ∗ := (b∗1 , . . . , b∗n ) ist eine Basis von V ∗ . Beweis: Wegen dim(V ∗ ) = dim(V ) gen¨ ugt es zu zeigen, daß B ∗ linear unabh¨ angig ∗ ist. Seien dazu α1 , . . . , αn ∈ K mit α1 b1 + . . . + αn b∗n = 0. Dann gilt: 0 = (α1 b∗1 + . . . + αn b∗n )(bj ) = α1 b∗1 (bj ) + . . . + αn b∗n (bj ) = αj
∀ j = 1, . . . , n 2
32.5 Definition. Die Basis B ∗ heißt die zu B duale Basis von V ∗ . Vorsicht: Der Basisvektor b∗j h¨ angt nicht nur von bj , sondern von allen b1 , . . . , bn ab! 32.6 Korollar. Sei V ein beliebiger K-Vektorraum, und sei v ∈ V − {0}. Dann gibt es ein ϕ ∈ V ∗ mit ϕ(v) 6= 0.
250
Kapitel 32. Dualr¨ aume
Beweis:
Erg¨ anze v zu einer Basis B = (v, wi )i∈I von B. Definiere ϕ durch: ϕ(v)
= 1,
ϕ(wi ) = 0 ∀i ∈ I . Da B eine Basis von V ist, legen die Werte von ϕ auf den Vektoren aus B die lineare Abbildung ϕ : V → K eindeutig fest. 2
32.7 Korollar. Ist dim(V ) < ∞, so gibt es einen Isomorphismus Ψ : V → V ∗ .
Beweis1: Wegen dim(V ) = dim(V ∗ ) < ∞ sind V und V ∗ isomorph. 2 Beweis2: W¨ ahle eine Basis B von V . Ist B ∗ die zu B duale Basis von V ∗ , so definiere Ψ(vj ) := vj∗ . Offensichtlich ist Ψ ein Isomorphismus. 2
32.8 Bemerkung. Der Isomorphismus aus dem zweiten Beweis h¨ angt von der Wahl der Basis B ab. Es gibt keinen kanonischen“ Isomorphismus! ” 32.9 Beispiel. Sei B = (b1 , . . . , bn ) eine Basis von V und B ∗ = (b∗1 , . . . , b∗n ) die duale Basis von V ∗ . Sei α ∈ K − {0}. Setze B 0 := (αb1 , . . . , αbn ). Dann ist b∗j (bk ) = δjk = (b0j )∗ (b0k ) = (b0j )∗ (αbk ) = α(bj )∗ (bk )
und folglich b∗j = α(b0j )∗ . Somit ist (B 0 )∗ = ( α1 b∗1 , . . . , α1 b∗n ) 6= B ∗ . Seien Ψ, Ψ0 : V → V ∗ die zugeh¨ origen Isomorphismen. Dann gilt: Ψ(bj ) = b∗j = α(b0j )∗ = αΨ0 (b0j ) = αΨ0 (αbj ) = α2 Ψ0 (bj ) Somit ist Ψ = α2 Ψ. 32.10 Beispiel. Sei K ein beliebiger K¨ orper und V = K n . Dann ist V ∗ = (K n )∗ = Hom(K n ; K) ∼ = M (1 × n; K) = {(v1 , . . . , vn ) | vj ∈ K} . Sei B = (e1 , . . . , en ) die Standardbasis des K n . Sei e∗j = (v1 , . . . , vn ) der j-te Vektor der zu B dualen Basis von B. Dann gilt: δjk
= e∗j (ek )
= (v1 , . . . , vn ) ·
0 .. . 0 1 0 .. . 0
= vk . Somit ist e∗j = (0, . . . , 0,
1 , 0, . . . , 0). |{z} j-te Stelle
← k-te Stelle
32.11 Beispiel. Sei K = R und V = R . Sei b1 = 2
1 1
!
, b1 =
die Basis B = (b1 , b2 ). Sei b∗1 = (v1 , v2 ). Dann gilt: ! 1 ∗ 1 =b1 (b1 ) = (v1 , v2 ) · = v1 + v2 1 ! 1 ∗ 0 =b1 (b2 ) =(v1 , v2 ) · = v1 − v2 . −1
1 −1
!
und B
251 Somit ist v1 = v2 =
1 2
und folglich b∗1 = ( 12 , 21 ). Analog erh¨ alt man f¨ ur b∗2 = (w1 , w2 ):
0 =b∗2 (b1 ) = (w1 , w2 ) · 1
=b∗2 (b2 )
=(w1 , w2 ) ·
1 1 1 −1
!
!
= w1 + w2 = w1 − w2 .
Somit ist w1 = −w2 = 21 und folglich b∗1 = ( 21 , − 21 ). Damit haben wir die zu B duale Basis B ∗ = (b∗1 , b∗2 ) von V ∗ bestimmt. 32.12 Beispiel. Als Verallgemeinerung des vorangegangenen Beispieles betrachten wir den Vektorraum V = K n u einem beliebigen K¨ orper K. Sei B = (b1 , . . . , bn ) ¨ber b1j . ∗ ∗ ∗ eine Basis von V uns schreibe bj = .. . Die zu B duale Basis B = (b1 , . . . , bn ) bnj von V ∗ schreibe als b∗k = (vk1 , . . . , vkn ). Dann gilt nach Definition von B ∗ : δjk
= b∗j (bk )
b1j . . = (vk1 , . . . , vkn ) · . bnj
= vk1 · b1j + . . . + vkn · bnj .
Somit ist n
und folglich
v11 . . = . vn1
v11 . . . vn1
v1n b11 . .. . · .. . . . vnn bn1 ...
b11 v1n .. = .. . . bn1 . . . vnn ...
b1n .. . . . . bnn ...
−1 b1n .. . . . . . bnn ...
32.13 Definition. Sei V ein K-Vektorraum und U ⊂ V ein Untervektorraum. Dann heißt U 0 := {ϕ ∈ V ∗ | ϕ(u) = 0 ∀u ∈ U } der Annulator von U . 32.14 Lemma. Sei V ein K-Vektorraum und U ⊂ V ein Untervektorraum. Dann gilt: (i) U 0 ist ein Untervektorraum von V . (ii) U = {v ∈ V | ϕ(v) = 0 ∀ϕ ∈ U 0 } (iii) Ist dim(V ) < ∞, so ist dim(U 0 ) = dim(V ) − dim(U ). Beweis: (i) trivial
252
Kapitel 32. Dualr¨ aume
(ii) ⊂“: Sei u ∈ U . Dann gilt f¨ ur alle ϕ ∈ U 0 : ϕ(u) = 0. ” ur alle ϕ ∈ U 0 . Angenommen, v 6∈ U . Dann ⊃“: Sei v ∈ V mit ϕ(v) = 0 f¨ ” w¨ ahle eine Basis (ui )i∈I von U . Da v 6∈ U ist (v, ui )i∈I linear unabh¨ angig. Wir k¨ onnen dies also zu einer Basis B = (v, ui , wj )i∈I,j∈J von V erg¨ anzen. Definiere nun ϕ ∈ V ∗ durch ϕ(ui ) ϕ(v)
= 0 ∀i ∈ I = ϕ(wj ) = 1 ∀j ∈ J .
Dann ist ϕ ∈ U 0 , aber ϕ(v) = 1 6= 0 im Widerspruch zur Annahme. (iii) W¨ ahle eine Basis (u1 , . . . , uk ) von U und erg¨ anze diese zu einer Basis ∗ (u1 , . . . , un , vk+1 , . . . , vn ) von V . Sei (u∗1 , . . . , u∗n , vk+1 , . . . , vn∗ ) die zugeh¨ orige ∗ duale Basis von V . Dann gilt: ⇔
∗ ϕ = α1 u∗1 + . . . + αk u∗k + αk+1 vk+1 + . . . + αn vn∗ ∈ U 0 ∀j = 1, . . . , k :
∗ 0 = ϕ(uj ) = α1 u∗1 (uj ) + . . . + αk u∗k (uj ) + αk+1 vk+1 (uj ) + . . . + αn vn∗ (uj ) = αj
∗ ⇔ ϕ ∈ span(vk+1 , . . . , vn∗ ) ∗ Somit bilden vk+1 , . . . , vn∗ eine Basis von U 0 , und es gilt:
dim(U 0 ) = n − k = dim(V ) − dim(U ) . 2 32.15 Beispiel. Sei dim(V ) = n < ∞ und U ⊂ V eine Hyperebene, d.h. dim(U ) = n − 1. Dann ist dim(U 0 ) = n − (n − 1) = 1. Folglich ist U 0 = span(ϕ) f¨ ur ein (beliebiges) ϕ ∈ U 0 − {0}. Nach obiger Bemerkung ist U = {v ∈ V | ϕ(v) = 0}. Betrachten wir nun eine affine Hyperebene U + v0 , so gilt: v ∈ U + v0
⇔ v − v0 ∈ U
⇔ ϕ(v − v0 ) = 0 ⇔ ϕ(v) = ϕ(v0 ) =: c
Wir sehen also: U +v0 = {v ∈ V | ϕ(v) = c}, und dies ist die Hesse’sche Normalform von U + v0 . Seien V und W K-Vektorr¨ aume, sei F : V → W linear und ϕ ∈ W ∗ . Dann ist offensichtlich ϕ ◦ F : V → K ∈ V ∗ . Wir erhalten also eine Abbildung F∗ : W∗ → V ∗ ,
ϕ 7→ ϕ ◦ F .
∗
32.16 Definition. Die Abbildung F heißt die zu F duale Abbildung. 32.17 Lemma. F ∗ ist linear. Beweis:
Seien ϕ1 , ϕ2 ∈ W ∗ und α1 , . . . , α2 ∈ K. Es ist zu zeigen: F ∗ (α1 ϕ1 + α2 ϕ2 ) = α1 F ∗ (ϕ1 ) + α2 F ∗ (ϕ2 ) .
Wir berechnen f¨ ur ein beliebiges v ∈ V : F ∗ (α1 ϕ1 + α2 ϕ2 )(v)
= (α1 ϕ1 + α2 ϕ2 )(F (v)) = α1 ϕ1 (F (v)) + α2 ϕ2 (F (v)) = α1 · (F ∗ (ϕ1 ))(v) + α2 · (F ∗ (ϕ2 ))(v) = α1 F ∗ (ϕ1 ) + α2 F ∗ (ϕ2 ) (v)
2
253 32.18 Satz. Seien V, W endlich-dimensionale K-Vektorr¨aume mit Basen A und B. Sei F : V → W linear. Dann gilt: t ∗ MAB∗ (F ∗ ) = MBA (F )
Beweis: Zu A = (a1 , . . . , an ) und B = (b1 , . . . , bm ) seien A∗ = (a∗1 , . . . , a∗n ) und A∗ = (b∗1 , . . . , b∗m ) die dualen Basen. Stellt man das Bild von aj unter F bzgl. der Basis B als X F (aj ) = k = 1m ckj bk dar, so ist die Matrix MBA (F ) gegeben durch: MBA (F ) = (ckj )
k = 1...m j = 1...n
.
Die darstellende Matrix von F ∗ findet man, indem man analog das Bild unter F ∗ der Basisvektoren b∗µ , µ = 1 . . . m bzgl. der Basis A∗ darstellt: Ist F ∗ (b∗µ ) =
n X
dνµ a∗ν ,
ν=1
so ist M
B∗ A∗
(F ∗ ) die Matrix ∗
MAB∗ (F ∗ ) = (dµν )
k = 1...n j = 1...m
Es ist also zu zeigen: ckj = djk ∀k = 1 . . . m, ∀j = 1 . . . n. Wir berechnen: b∗µ (F (aj ))
= b∗µ (
m X
ckj bk )
k=1
=
m X
ckj b∗µ (bk ) | {z } k=1 δµk
= cµj Anderseits gilt: b∗µ (F (aj ))
= =
F ∗ (b∗µ ) (aj ) n X dνµ a∗ν (aj ) ν=1
=
n X
dνµ a∗ν (aj ) | {z } ν=1 δνj
= djµ
Somit ist cµj = djµ ∀µ = 1 . . . m, ∀j = 1 . . . n.
2
32.19 Satz. Seien V, W endlich-dimensionale K-Vektorr¨aume und sei F : V → W linear. Dann gilt: 0 im(F ∗ ) = ker(F ) (32.1) 0 ∗ ker(F ) = im(F ) (32.2)
254
Kapitel 32. Dualr¨ aume
Beweis: 0 a) Wir zeigen zuerst im(F ∗ ) ⊂ (ker(F ) :Sei dazu ϕ ∈ im(F ∗ ), d.h. ϕ = F (ψ) f¨ ur ein ψ ∈ V ∗ . Sei ferner v ∈ ker(F ). Dann gilt: ϕ(v) = F ∗ (ψ)(v) = ψ(F (v)) = ψ(0) = 0 0 Somit ist ϕ ∈ ker(F ) . 0 0 b) Wir zeigen nun im(F ∗ ) ⊃ (ker(F ) :Sei dazu ϕ ∈ ker(F ) . W¨ ahle Basen A = (v1 , . . . , vn ) von V und B = (w1 , . . . , wm ) von W , so dass ! 0 r A . MB (F ) = 0 0 Definiere ψ ∈ Hom(W ; K) durch ( ϕ(vj ), j = 1, . . . , r ψ(wj ) := 0, j = r + 1, . . . , m Es bleibt zu zeigen, dass F ∗ (ψ) = ϕ. F¨ ur j = 1, . . . , r gilt: F ∗ (ψ)(vj ) = ψ(F (vj )) = ψ(wj ) = ϕ(vj ) | {z } =wj
F¨ ur j = r + 1, . . . , n gilt:
F ∗ (ψ)(vj ) = ψ(F (vj ) = 0) = 0 = ϕ(vj ) , | {z } 0 denn ϕ ∈ ker(F ) und ker(F ) = span(vr+1 , . . . , vn ). Somit ist also F ∗ (ψ) = ϕ und folglich ϕ ∈ im(F ∗ ). c) Der Beweis der zweiten Gleichung geht ganz analog. 2 32.20 Korollar. Es gilt: rg(F ∗ ) = rg(F ) Beweis: rg(F ∗ ) = dim(imF ∗ ) = dim((ker F )0 ) = dim(V ) − dim(ker F ) = dim(imF ) = rg(F ) 2 32.21 Bemerkung. Die Gleichungen rg(F ) = rg(MBA (F )) und
∗
A rg(F ∗ ) = rg(MAB∗ ) = rg((MBA (F ))t ) = rg(M ˜ B (F ))
zusammen mit rg(F ) = rg(F ∗ ) ergeben einen neuen Beweis der Aussage Spaltenrang rg = Zeilenrang rg ˜.
255 32.22 Definition. Sei V ein K-Vektorraum. Dann heißt V ∗∗ := (V ∗ )∗ = Hom(V ∗ ; K) der Bidualraum von V . Betrachte zu v ∈ V die Abbildung
i(v) : V ∗ → K,
ϕ 7→ ϕ(v)
Wegen i(v)(α1 ϕ1 + α2 ϕ2 ) = (α1 ϕ1 + α2 ϕ2 ) = α1 ϕ1 (v) + α2 ϕ2 (v) = α1 i(v)(ϕ1 ) + α2 i(v)(ϕ2 ) ist i(v) : V ∗ → K f¨ ur jeses v ∈ V linear. Wir haben somit eine Abbildung i : V → V ∗∗
konstruiert. Diese Abbildung i ist linear, denn i(α1 v1 + α2 v2 )(ϕ)
= ϕ(α1 v1 + α2 v2 ) = α1 ϕ(v1 ) + α2 ϕ(v2 ) = (α1 i(v1 ) + α2 i(v2 ))(ϕ) ∀ϕ ∈ V ∗
32.23 Satz.
a) Die Abbildung i : V → V ∗∗ ist injektiv.
b) Ist dim(V ) < ∞, so ist i : V → V ∗∗ ein Isomorphismus. Beweis: a) Sei v ∈ V mit i(v) = 0. Dann gilt f¨ ur alle ϕ ∈ V ∗ : 0 = i(v)(ϕ) = ϕ(v) W¨ are v 6= 0, so g¨ abe es ein ϕ ∈ V ∗ mit ϕ(v) 6= 0. Also ist v = 0. b) Sei dim(V ) < ∞. Es gilt:
dim(V ∗∗ ) = dim(V ∗ ) = dim(V ) .
Nach a) ist i injektiv und somit ein Isomorphismus. 2 32.24 Definition. Ist dim(V ) < ∞, so heißt
i : V → V ∗∗
der kanonische Isomorphismus. 32.25 Bemerkung. V und V ∗ sind zwar isomorph, aber es gibt keinen ausgezeichneten Isomorhismus. Dagegen sind V und V ∗∗ kanonische ismomorph. ∗ ∗∗ n 32.26 Beispiel. Sei V = K n . Dann ist V = {(v1 , . . . , vn ) | vi ∈ K} und V = K . v1 .. Sei V ∗ 3 ϕ = (w1 , . . . , wn ) und V = . . Dann ist vn v 1 .. i(v)(ϕ) = ϕ(v) = w1 . . . wn . vn
256
Kapitel 32. Dualr¨ aume
32.27 Satz. Seien V und W endlich-dimensionale K-Vektorr¨aume, seien iV , iW die zugeh¨origen Isomorphismen, und F : V → W linear. Dann kommutiert das folgende Diagramm: V −−−−→ W F i i yW yV V ∗∗ −−−∗∗ −→ W ∗∗ F
d.h. es gilt: iV ◦ F = F Beweis:
∗∗
◦ iW .
Sei v ∈ V und ϕ ∈ W ∗ . Dann gilt: F ∗∗ (iV (v))(ϕ) = iV (v)(F ∗ (ϕ)) = F ∗ (ϕ(v)) = ϕ(F (v))
Andererseits ist iW (F (v))(ϕ) = ϕ(F (v)) Somit ist also F ∗∗ (iV (v))(ϕ) = iW (F (v))(ϕ) ∀ϕ ∈ V ∗ ∀v ∈ V und folglich F ∗∗ (iV (v)) = iW (F (v)) ∀v ∈ V , also gilt wie behauptet: F ∗∗ ◦ iV = iW ◦ F . 2
Kapitel 33
Dualr¨ aume und Skalarprodukte Sei (V, h·, ·i) ein euklidischer Vektorraum. Wir betrachten die Abbildung τ : V → V ∗,
τ (v)(w) := hv, wi ∀v, w ∈ V .
F¨ ur jedes v ∈ V ist die Abbildung τ (v) : V → K linear, da h·, ·i linear im zweiten Argument ist. Ferner ist die Abbildung τ : V → V ∗ linear, da h·, ·i linear im ersten Argument ist. 33.1 Satz.
a) τ : V → V ∗ ist injektiv.
b) Ist dim(V ) < ∞, so ist τ ein Isomorhismus. Beweis: a) Sei τ (v) = 0. Dann gilt: 0 = τ (v)(w) = hv, wi ∀w ∈ V Da h·, ·i nicht entartet ist, folgt v = 0, und folglich ist τ injektiv. b) Ist dim(V ) < ∞, so gilt dim(V ) dim(V ∗ ). Nach a) ist τ injektiv und folglich ein Isomorphismus. 2 33.2 Bemerkung. tes h·, ·i ab.
a) Die Abbildung τ h¨ angt von der Wahl des Skalarpdoduk-
b) Im endlich-dimensionalen Fall besagt der Satz: ∀ϕ ∈ V ∗ ∃! v ∈ V : ϕ(w) = hv, wi f orallw ∈ W 33.3 Satz. Sei (V, h·, ·i) ein euklidischer Vektorraum, und sei τ : V → V ∗ der zugeh¨orige Isomorphismus. Dann gilt: (i) F¨ ur jeden Untervektorraum U ⊂ V ist τ (U ⊥ ) = U 0 (ii) Ist B = (b1 , . . . , bn ) eine Orthonormalbasis von V und B ∗ = (b∗1 , . . . , b∗n ) die duale Basis von V ∗ , so gilt τ (bj ) = b∗j
258
Kapitel 33. Dualr¨ aume und Skalarprodukte
Beweis: (i) Sei v ∈ U ⊥ . Dann gilt f¨ ur alle u ∈ U : τ (v)(u) = hv, ui = 0 Somit ist τ (v) ∈ U 0 , und folglich gilt: τ (U ⊥ ) ⊂ U 0 . Man erh¨ alt f¨ ur die Dimension von τ (U ⊥ ): dim(τ (U ⊥ )) = dim(U ⊥ ) = dim(V ) − dim(U ) = dim(U 0 ) . Folglich ist τ (U ⊥) = U 0 . (ii) Wir berechnen: τ (bj )(bk ) = hbj , bk i = δjk = b∗j (bk ) ∀k = 1, . . . , n Somit stimmen τ (bj ) und b∗j auf der Basis B = (b1 , . . . , bn ) und also auch auf ganz V u ¨berein. 2 33.4 Definition. Seien V, W endlich-dimensionale K-Vektorr¨ aume, seien τV , τW die zugeh¨ origen Isomorphismen, und sei F : V → W linear. Wir definieren die adjungierte Abbildung durch: F ad : V → W ,
F ad = τV−1 ◦ F ∗ ◦ τW ,
d.h. das Diagramm F ad
V ←−−−− τV y
W τ yW
V ∗ ←−−∗−− W ∗ F
kommutiert. 33.5 Bemerkung. F¨ ur alle v ∈ V, w ∈ W gilt: hv, F ad (w)i
= hF ad (w), vi = τV (F ad (w))(v) = τV ◦ F ad (w)(v) = F ∗ ◦ τW (w)(v) = τW (w)(F (v)) = hw, F (v)i = hF (v), wi
Die adjungierte Abbildung F ad ist also charakterisiert durch die Bedingung: hF (v), wi = hv, F ad (w)i ∀v ∈ V, w ∈ W . Insbesondere gilt: F ist selbstadjungiert ⇔ F = F ad . (Dies impliziert nat¨ urlich insbesondere V = W .) 33.6 Satz. Seien V, W endlich-dimensionale, euklidische K-Vektorr¨aume mit Orthonormalbasen A bzw. B. Sei F V → W linear.
259 (i) F¨ ur die darstellenden Matrizen gilt: MBA (F ad ) = MBA (F ) (ii) F¨ ur Bild und Kern von F ad finden wir:
t
im(F ad ) = ker(F )⊥ ker(F ad ) = im(F )⊥ (iii) Ist F selbstadjungiert, so gilt: V = ker(F ) ⊥ im(F ) , d.h. V die Summe ist direkt und die Summanden sind orthogonal. Beweis: (i) Wir berechnen: MBA (F ad )
= MAB (τV−1 ◦ F ∗ ◦ τW ) τ
(B)
= MτVW(A) (F ∗ ) ∗
= MAB∗ (F ∗ ) t = MBA (F )
(ii) F¨ ur das Bild von F ad erhalten wir:
im(F ad ) = im(τV−1 ◦ F ∗ ◦ τW ) = τV−1 (im(F ∗ ◦ τW )) = τV−1 (imF ∗ ) = τV−1 ((ker F )0 ) = ker(F )⊥ Die Aussage u ¨ber den Kern von F ad zeigt man ganz analog. (iii) Sei F = F ad ; dann gilt: V
= ker(F ) ⊥ ker(F )⊥ = ker(F ) ⊥ im(F ad ) = ker(F ) ⊥ im(F )
2
260
Kapitel 33. Dualr¨ aume und Skalarprodukte
Kapitel 34
Quotientenvektorr¨ aume Sei V ein K-Vektorraum und U ⊂ V ein Untervektorraum. Definiere f¨ ur v, w ∈ V : v ∼ w :⇔ (v − w) ∈ U . ¨ 34.1 Lemma. Die definiert eine Aquivalenzrelation auf V . Beweis: a) v ∼ v, denn (v − v) = 0 ∈ U . b) v∼w
⇒ (v − w) ∈ U ⇒ −(v − w) = (w − v) ∈ U ⇒ w∼v
c) v ∼ wund w ∼ z
⇒ (v − w) ∈ U, (w − z) ∈ U ⇒ (v − w) + (w − z) = v − z) ∈ U ⇒ v∼z
2 34.2 Definition. V /U := V / ∼ = {[v] | v ∈ V } heißt der Quotientenraum von V ¨ nach U . Hierbei bezeichnet [v] die Aquivalenzklasse von v ∈ V bzgl. ∼. 34.3 Lemma. Seien v1 , v1 , w1 , w2 ∈ V und α ∈ K. Dann gilt: (i) v1 ∼ v2 , w1 ∼ w2 ⇒ (v1 + w1 ) ∼ (v2 + w2 ). (ii) v1 ∼ v2 ⇒ αv1 ∼ αv2 . Beweis: (i) v1 ∼ v 2 , w1 ∼ w 2
⇒ (v1 − v2 ) ∈ U, (w1 − w2 ) ∈ U
⇒ (v1 − v2 ) + (w1 − w2 ) = (v1 + w1 ) − (v2 + w2 ) ∈ U ⇒ (v1 + w1 ) ∼ (v2 + w2 )
262
Kapitel 34. Quotientenvektorr¨ aume
(ii) v1 ∼ v 2
⇒ (v1 − v2 ) ∈ U ⇒ α(v1 − v2 ) = (αv1 − αv2 ) ∈ U
⇒ αv1 ∼ αv2
2 34.4 Korollar. Die Verkn¨ upfungen [v] + [w]
:= [v + w]
α · [v] := [α · v] auf V /U sind wohldefiniert. Man u uft leicht durch direktes Nachrechnen der Axiome: ¨berpr¨ 34.5 Proposition. a) Der Quotientenraum V /U ist mit den oben definierten Verkn¨ upfungen ein K-Vektorraum. b) Die Abbildung: π : V → V /U ,
v 7→ [v] ,
ist linear und surjektiv. 34.6 Satz. Kanonische Faktorisierung Seien V, W K-Vektorr¨ aume, und sei F : V → W linear. Dann ∃! Isomorphismus f : V / ker(F ) → im(F ), so dass das Diagramm V π y
−−−−→ F
W x ı
V / ker(F ) −−−−→ im(F ) f
kommutiert. Hierbei bezeichnet ı : im(F ) → W die kanonische Einbettung. Beweis: a) Wir zeigen zuerst die Eindeutigkeit: Falls obiges Diagramm kommutiert, so gilt f¨ ur alle v ∈ V : F (v) = f (π(v)) = f ([v]) . Dadurch ist f eindeutig festgelegt. b) Um zu zeigen, dass ein solches f existiert, definerien wir f durch: f ([v]) := F (v) . Wir zeigen nun: (i) f ist wohldefiniert, denn f¨ ur [v1 ] = [v2 ] ist (v1 − v2 ) ∈ ker(F ), und somit gilt: F (v1 ) − F (v2 ) = F (v1 − v2 ) = 0 , also F (v1 ) = F (v2 ). (ii) Wegen im(f ) = im(F ) ist f surjektiv.
263 (iii) f ist injektiv, denn es gilt: 0 = f ([v]) = F (V ) ⇒ v ∈ ker(F ) ⇒ [v] = [0] ∈ V / ker(F ) 2 34.7 Beispiele.
a) Sei V = U ⊕ W und F : V → W definiert durch F (u + w) := w
f¨ ur alle u ∈ U, w ∈ W . Dann ist ker(F ) = U und im(F ) = W . Nach Satz 34.2 gibt es einen eindeutigen Isomorphismus f : V /U → W mit f ([v]) = f ([u + w]) = F (u + w) = w. Es gilt also: V /U ∼ = W. b) Sei V = {f : [a, b] → R | f integrierbar } und U = {f ∈ V | f = 0 fast u ¨berall }. Man definerit dann L1 ([a, b]; R) := V /U .
264
Symbolverzeichnis
Symbolverzeichnis G∼ = H , Isomorphie der Gruppen G und H . . . . . . . . . . . . . . . . . . . 56 spanK (M ), von M aufgespannter Raum . . . . . . . . . . . . . . . . . . . 39 spanK (v1 , . . . , vm ), von v1 , . . . , vm aufgespannter Raum . . . . . 39 (G, ·), Gruppe . . . . . . . . . . . . . . . . . . . . 17 (K, +, ·), K¨ orper . . . . . . . . . . . . . . . . . . 21 (V, +, ·), Vektorraum . . . . . . . . . . . . . 33 :=, Definition . . . . . . . . . . . . . . . . . . . . . . 2 :⇔, Definition . . . . . . . . . . . . . . . . . . . . . 1 A − B, Mengendifferenz. . . . . . . . . . . .2 A ∩ B, Schnittmenge. . . . . . . . . . . . . . .2 A ∪ B, Vereinigung . . . . . . . . . . . . . . . . 2 An , kartesisches Produkt. . . . . . . . . . .2 A1 × . . . × An , kartesisches Produkt2 C,Doppelkegel . . . . . . . . . . . . . . . . . . . 222 D(r), Kreisscheibe vom Radius r 141 E(2), euklidische Bewegungsgruppe 86 E(a, b), Ellipse mit den Halbachsen a und b. . . . . . . . . . . . . . . . . . .142 F ∗ , zu F duale Abbildung . . . . . . . 252 F ad , adjungierte Abbildung . . . . . .258 Ga,v , Gerade. . . . . . . . . . . . . . . . . . . . . . .8 H,Standardhyperbel . . . . . . . . . . . . . 219 Ha , H¨ ohe eines Dreiecks . . . . . . . . . . 90 J, Drehung um π/2 . . . . . . . . . . . . . . . 84 K[x1 , x2 , . . . , xn ], Menge der Polynome in den Variablen x1 , . . . , xn mit Koeffizienten in K . . . . . . . . . . . . . . . . . . . 177 Kr (m), Kreis mit Mittelpunkt m und Radius r . . . . . . . . . . . . . . . . .92 M (φ), darstellende Matrix von φ (bez¨ uglich der Standardbasen) . . . . . . . . . . . . . . . . . . . . . 65 MB (β), darstellende Matrix von β bzgl. der Basis B . . . . . . . 210 A MB (φ), darstellende Matrix von φ bez¨ uglich der Basen A und B . . . . . . . . . . . . . . . . . . . . . . 100 M (m × n, K) , {m × n-Matrizen mit Eintr¨ agen in K} . . . . . . . . . 65 N (β), Nullraum von β . . . . . . . . . . . 214 O(V ), orthogonale Gruppe von V 236 O(n), Menge der orthogonalen n × nMatrizen . . . . . . . . . . . . . . . 236 PU , Orthogonalprojektion auf U . 231 Pϕ , charakteristisches Polynom . . 155
SO(V ), speziell-orthogonale Gruppe von V . . . . . . . . . . . . . . . . . . 236 SO(n), Menge der orthogonalen n×nMatrizen mit positiver Determinante . . . . . . . . . . . . . 236 SU (V ), spezielle unit¨ are Gruppe von V . . . . . . . . . . . . . . . . . . . . . . 247 TAA0 , Transformationsmatrix. . . . . .101 U ⊥ ,orthogonales Komplement von U 230 U (V ),unit¨ are Gruppe von V . . . . . 247 V = W1 ⊕ W2 , direkte Summe . . . . 53 aumV ∼ = W , Isomorphie von Vektorr¨ en . . . . . . . . . . . . . . . . . . . . . . . 62 V /U , Quotientenraum von V nach U 261 V ∗ , Dualraum von V . . . . . . . . . . . . 249 V ∗∗ , Bidualraum von V . . . . . . . . . 255 W1 + · · · + Wr , Summe von Untervektorr¨ aumen . . . . . . . . . . . . . . . 51 X t , Transponierte . . . . . . . . . . . . . . . 106 #B, Anzahl der Elemente von B . 52 ∆(λ1 , . . . , λn ), Diagonalmatrix . . . . 74 Eig(φ, λ) , Eigenraum . . . . . . . . . . . 155 Lsg(A, b), L¨ osungsmenge eines lin. Gleichungssystems . . . . . . . 77 N, nat¨ urliche Zahlen . . . . . . . . . . . . . . . 1 Q, rationale Zahlen . . . . . . . . . . . . . . . . 1 R, reelle Zahlen . . . . . . . . . . . . . . . . . . . . 1 SO(2), spezielle orthogonale Gruppe 84 Z, ganze Zahlen. . . . . . . . . . . . . . . . . . . .1 C(X, b), verallgemeinerter Kegel u ¨ber X mit der Spitze b . . . . . 145 Kn , Menge aller kompakten Teilmengen des Rn . . . . . . . . . . . . . 137 P, Potenzmenge . . . . . . . . . . . . . . . . . . . 1 S(M ), symmetrische Gruppe von M 20 Sn , symmetrische Gruppe von n Elementen . . . . . . . . . . . . . . . . . . 20 Z(X, b), schiefer Zylinder u ¨ber X in Richtung b . . . . . . . . . . . . . 144 Zh (X), verallgemeinerter Zylinder u ohe h . 142 ¨ber X mit der H¨ cosh,hyperbolischer Kosinus . . . . . 219 det(A), Determinante von A . . . . . 119 det(φ), Determinante von φ. . . . . .131 dimK (V ), Dimension von V . . . . . . 48 ∅, leere Menge . . . . . . . . . . . . . . . . . . . . . 1
Symbolverzeichnis ∃, es existiert . . . . . . . . . . . . . . . . . . . . . . 1 ∀, f¨ ur alle . . . . . . . . . . . . . . . . . . . . . . . . . . 1 idA , identische Abbildung von A . . . 3 im, Bild eines Gruppenhomomorphismus . . . . . . . . . . . . . . . . . . . . . 56 ker, Kern eines Gruppenhomomorphismus . . . . . . . . . . . . . . . . . 56 hx, yi, Skalarprodukt . . . . . . . . . . . . . . . 9 hx, yi, (euklidisches) Skalarprodukt von x und y . . . . . . . . . . . . 227 E+ (2), Gruppe der orientierungserhaltenden euklidischen Bewegungen. . . . . . . . . . . . . . . .86 O(2), orthogonale Gruppe . . . . . . . . 85 O(2)− , Spiegelungen . . . . . . . . . . . . . . 84 µ(φ, λ), geometrische Multiplizit¨ at 155 µ(φ, λ), geometrische Vielfachheit155 µalg , algebraische Vielfachheit . . . 162
⊥ , orthogonale direkte Summe . 259 rg, Rang einer Matrix. . . . . . . . . . . . .68 rg, Rang einer linearen Abbildung 62 rg(X), Zeilenrang. . . . . . . . . . . . . . . .106 char(R), Charakteristik eines Ringes 170 sinh, hyperbolischer Sinus . . . . . . . 219 ^(x, y), Innenwinkel . . . . . . . . . . . . . . 15 ⊂, Teilmenge von . . . . . . . . . . . . . . . . . . 1 ⊃, Obermenge von . . . . . . . . . . . . . . . . . 1 tr(A), Spur von A . . . . . . . . . . . . . . . 157 voln (X), n-dimensionales Volumen von X . . . . . . . . . . . . . . . . . . 137 rg(X), e Zeilenrang. . . . . . . . . . . . . . . .106 kxk, Norm . . . . . . . . . . . . . . . . . . . . . . . . 10 a−1 , inverses Element . . . . . . . . . . . . . 17 d(x, y), euklidischer Abstand . . . . . . 11 dH , Hemming-Abstand . . . . . . . . . . . 95 f (A0 ), Bildmenge . . . . . . . . . . . . . . . . . . 3 f ◦ g, Verkettung, Komposition . . . . 3 f −1 , Umkehrabbildung. . . . . . . . . . . . .5 f −1 (B 0 ), Urbildmenge . . . . . . . . . . . . . 3 ankung . . . . . . . . . . . . . . . 5 f |A0 , Einschr¨ qβ , quadratische Form zu β . . . . . . 211 v × w, Vektorprodukt. . . . . . . . . . . .113
265
266
Index
Index F -invariant, 188 K-Vektorraum, 33 K-Vektorraumhomomorphismus, 59 K-linear, 59 U 0 , Annulator von U , 251 λ-fehlerkorrigierender Code, 95 φ darstellende Matrix, 65 ϕ-Periode, 204 ϕ-invarianter Untervektorraum, 164 m × n - Matrix, 65 m × n - Matrix mit Eintr¨ agen in K, 65 n-Eck, 140 n-dimensionale Volumen, 137 n-dimensionales Parallelotop, 137 ahnlich, 103 ¨ aquivalent, 103 ¨ Abbildung, 2 – K-lineare, 59 – affine, 70 abelsch, 20 Absolutbetrag, 26 Addition, 21 Adjungierte, 244 adjungierte Abbildung, 258 affine Abbildung, 70 affiner Unterraum, 69 Algebra, 193 algebraische Vielfachheit, 162 Algebrenhomorphismus, 193 allgemeine lineare Gruppe, 73 Annihilator, 194 Annulator, 251 Anzahl der Elemente von B, 52 Argument, 27 ausgeartet, 214 Austauschlemma, 46 Austauschsatz, 47 Auswertehomomorphismus, 179 Automorphismus, 62 – orientierungserhaltend / orientierungstreu, 135 – orientierungsumkehrend, 135 Basis, 43 – duale ∼, 249 – entgegengesetzt orientiert, 133 – geordnete, 46 – gleich lang, 48 – gleich orientiert, 133
– kanonische, 43 – L¨ ange, 48 – Orthonormal-, 229 – Standard- , 43 Basisauswahlsatz, 46 Basiserg¨ anzungssatz, 49 Bidualraum, 255 bijektiv, 3 Bild, 3, 56 Bildmenge, 3 Bilinearform, 209 – ausgeartete (auch degenerierte, entartete), 214 – indefinite, 216 – negativ definite, 216 – negativ semidefinite, 216 – positiv definite, 216 – positiv semidefinite, 216 – schiefsymmetrische, 211 – symmetrische, 211 Bin¨ arcode, 95 Cauchy-Schwarz-Ungleichung, 243 Cauchy-Schwarz-Ungleichung, Versch¨ arfung, 115 Charakteristik, 170 charakteristisches Polynom, 155 Cramer’sche Regel, 130 darstellende Matrix, 65, 100, 210 degeneriert, 214 Determinante – einer Matrix, 119 – eines Endomorphismus, 131 Determinante von φ, 131 Determinantenabbildung, 119 Determinantenmultiplikationssatz, 127 Diagonalensatz, 13 diagonalisierbar, 154 Diagonalmatrix, 74 Dimension, 48 Dimension des affinen Unterraums, 69 Dimensionsformel, 52 Dimensionsformel f¨ ur lineare Abbildungen, 62 direkte Summe, 53 Distributivgesetze, 21 Drehachse, 240 Drehachse von ϕ, 240
Index Drehwinkel, 240 Drehwinkel von ϕ, 240 Dreieck, 13 – Fl¨ acheninhalt, 138 duale Abbildung, 252 duale Basis, 249 Dualraum, 249 Ebene, 109 Eigenbasis, 166 Eigenraum, 155 Eigenvektor, 153 Eigenwert, 153 Einschr¨ ankung, 5 Einselement, 169 elementaren Zeilenumformungen, 80 Elementarmatrix, 75 Elementarmatrizen, 75 Ellipse, 142 endlich erzeugt, 45 endlichdimensional, 49 endliches Erzeugendensystem, 45 Endomorphismus, 62 – orthogonaler, 235 entartet, 214 entgegengesetzt orientiert, 133 Epimorphismus, 62 erweiterte Koeffizientenmatrix, 77 Erzeugendensystem, 43 euklidische Bewegung, 86 euklidische Norm, 115 euklidischer Abstand, 11 euklidischer Vektorraum, 227 euklidisches Skalarprodukt, 113, 227 Fahne, 188 Fibonacci-Folge, 160 Fixpunkt, 87 Gauß’scher Algorithmus, 81 geometrische Multiplizit¨ at, 155 geometrische Vielfachheit, 155 geordnete Basis, 46 Gerade, 8, 109 gleich orientiert, 133 gleichm¨ achtig, 5 Gleichungen – quadratische, 91 Grad, 177 Gruppe, 17 – orthogonale, 236 – speziell-orthogonale, 236 Gruppenhomomorphismus, 55 Gruppenisomorphismus, 56
267 H¨ ohe, 90 – eines schiefen Zylinders, 144 – in einem Dreieck, 90 H¨ ohe von Z(X, b), 144 H¨ ohenschnittsatz, 90 Hemming-Abstand., 95 hermitesch, 243, 244 Hesse’sche Normalform f¨ ur Hyperebenen, 110 homogen, 77 Homomorphismus – K-Vektorraum- , 59 – Gruppen- , 55 Hyperebene, 109 Ideal, 171 identische Abbildung, 3 Identit¨ at, 3 Imagin¨ arteil, 25 indefinit, 216 inhomogen, 77 injektiv, 3 Inklusion, 1 Innenwinkel, 15, 115, 229 Innenwinkel von x und y, 229 inverses Element, 17 invertierbar, 73 invertierbare Matrix, 73 isomorph, 56, 62, 174 Isomorphismus, 62 Jordanblock, 206 K¨ orper, 21 kanonische Basis, 43 kanonische Isomorphismus, 255 kartesisches Produkt, 2 Kegel – verallgemeinerter, 145 Kern, 56, 173 Koeffizientenmatrix, 77 – erweiterte, 77 kommutativ, 20 kommutativer Ring, 169 Komplement, orthogonales, 230 komplexe Konjugation, 25 komplexen Zahlen, 22 Komposition, 3 Kontrollmatrix, 96, 96 Kosinussatz, 15 Kreis, 92 – Fl¨ acheninhalt, 141 Kreis mit Mittelpunkt m und Radius r, 92
268 Laplace – Spaltenentwicklungssatz von, 125 – Zeilenentwicklungssatz von, 127 leicht berechenbar, 143 Lemma von Zorn, 46 lexikographische Ordnung, 178 LGS, 77 – homogenes, 77 – inhomogenes, 77 – zu einem inhomogenen zugeh¨ origes homogenes, 77 linear, 96 linear abh¨ angig, 41 linear unabh¨ angig, 40, 41 lineares Gleichungssystem, 77 – homogenes, 77 – inhomogenes, 77 – zu einem inhomogenen zugeh¨ origes homogenes, 77 Linearfaktoren, 181 Linearfaktorzerlegung, 181 Linearformen, 249 Linearkombination, 39 Linksideal, 171 Matrix, 65 – darstellende, 65, 100, 210 – Elementar- , 75 – invertierbar, 73 – Kontroll- , 96 – orthogonale, 236 – quadratische, 73 – schiefsymmetrische, 211 – symmetrische, 211 Matrixmultiplikation, 67 maximale lin. unabh. Teilmenge, 44 Menge, 1 Mengendifferenz, 2 Menschenfreundlichkeit, 46 minimales Erzeugendensystem, 44 Minimalpolynom, 196 Mittelpunkt, 12 Monom, 177 Monomorphismus, 62 monoton, 10 Multiplikation, 21 Multiplikation von Matrizen mit Vektoren, 66 negativ definit, 216 negativ semidefinit, 216 neutrales Element, 17
Index nicht entartet (Dreieck), 13 nicht entartet (Parallelogramm), 13 nilpotent, 204 Norm, 10, 227 – euklidische, 115 Norm von x, 227 Normalenvektor, 90 normiert, 195 Nullraum, 214 nullteilerfrei, 21 Nullteilerfreiheit, 21 Obermenge, 1 Oktaeder, 150 ONB, 244 Orientierung, 133 orientierungserhaltend, 135 orientierungserhaltende euklidische Bewegung, 86 orientierungstreu, 135 orientierungsumkehrend, 135 orthogonal, 15, 235, 236 – Endomorphismus, 235 – Matrix, 236 orthogonale Gruppe, 85, 236 orthogonale Gruppe von V , 236 orthogonales Komplement, 230 orthogonales Komplement von U , 230 Orthogonalprojektion, 231 Orthogonalprojektion auf U , 231 Orthonormalbasis, 229, 244 Orthonormalbasis von V , 229 parallel, 109 Parallelogramm, 12 Parallelotop, 116 – n-dimensionales, 137 Polynom, 177 positiv definit, 216, 243 positiv semidefinit, 216 positiven reellen Zahlen, 55 Potenzmenge, 1 punktweise, 34 quadratische Form, 211 quadratische Gleichungen, 91 quadratische Matrix, 73 quadratischen Matrizen, 73 Quotientenraum von V nach U , 261 Quotientenring, 172 Rang einer linearen Abbildung, 62 Rang einer Matrix, 68
Index Realteil, 25 Restklassenring, 172 Rhombensatz, 16 Ring, 169 Ringhomomorphismus, 173 Ringisomorphismus, 174 Satz des Pythagoras, 16 schiefe Zylinder u ¨ber X in Richtung b mit der H¨ ohe h, 144 schiefsymmetrisch, 211 Schmidtsches Orthonormalisierungsverfahren, 232 Schnittmenge, 2 Schwerpunkt, 14 Schwerpunktsatz, 14 Seitenhalbierende, 14 Sekante, 93 selbstadjungiert, 244 Sesquilinearform, 243 Skalarprodukt, 9, 227, 244 – euklidisches, 113 Spaltenentwicklungssatz von Laplace, 125 Spaltenrang, 106 Spatprodukt, 117 speziell-orthogonale Gruppe, 236 speziell-orthogonale Gruppe von V , 236 spezielle orthogonale Gruppe, 84 spezielle unit¨ are Gruppe, 247 – von V , 247 spezielle Zeilenumformungen, 123 spezieller Zeilenstufenform, 79 Spur, 157 Standard-Sesquilinearform auf Cn , 243 Standardbasis, 43, 48 surjektiv, 3 symmetrisch, 211, 243 symmetrische Gruppe, 20 Tangente, 92 Tangenten-Sehnen-Satz, 94 Teilmenge, 1 Teilmengen-Relation, 1 Tetraeder, 148 Tetraeder der Seitenl¨ ange a, 148 Transformationsformel bei Basiswechsel, 102 Transformationsmatrix, 101 Transponierte, 106 trigonalisierbar, 188 triviale Gruppe, 31
269 triviale Unterguppe, 35 triviale Untervektorraum, 38 Umkehrabbildung, 5 unit¨ ar, 247 unit¨ are Gruppe, 247 – von V , 247 unit¨ arer, 244 unit¨ arer Vektorraum, 244 Untergruppe, 35 Unterring, 171 Untervektorraum, 36 – zum affinen Unterraum A geh¨ orig, 69 Urbild, 3 Urbildmenge, 3 Vektorprodukt, 113 Vektorraum – euklidischer, 227 – unit¨ arer, 244 Vektorraum u ¨ber K, 33 Vektorraumhomomorphismus – (KVektorraumhomomorphismus), 59 verallgemeinerter Kegel u ¨ber X mit der Spitze b, 145 verallgemeinerter Zylinder u ¨ber X mit der H¨ ohe h, 142 Vereinigung, 2 Verkettung, 3 Verkn¨ upfung, 17 Vielfachheit, 180 Viet` a – Wurzelsatz von, 92 Volumen – n-dimensionales, 137 Wurzelsatz von Viet` a, 92 Zeilenentwicklungssatz von Laplace, 127 Zeilenrang, 106 Zeilenstufenform, 78 – spezielle, 79 Zeilenumformungen – elementare, 80 – spezielle, 123 ZSF, 78 zu A geh¨ orige Untervektorraum, 69 zugeh¨ orig, 77 zul¨ assig, 97 Zwei-Sehnen-Satz, 93
270 Zweige (einer Hyperbel), 219 Zylinder – schiefer, 144 – verallgemeinerter, 142
Index
Literaturverzeichnis [1] Greub, Werner: Lineare Algebra. Korr. Nachdruck der 1. Aufl., Heidelberger Taschenb¨ ucher. Band 179. Berlin-Heidelberg-New York: Springer-Verlag (1976)