Vorlesung Lineare Algebra und Analytische Geometrie II Andreas Knauf Sommersemester 2001
Inhaltsverzeichnis 1 Einleitung
2
2 Der Quotientenraum nach einem Unterraum
4
3 Der Dualraum eines Vektorraums
8
4 Direkte Summen von Vektorr¨aumen
18
5 Die Jordansche Normalform ¨ ¨ 5.1 Aquivalenz und Ahnlichkeit . . . . . . . . . 5.2 Nilpotente Endomorphismen . . . . . . . . . 5.3 Verallgemeinerte Eigenr¨aume . . . . . . . . . 5.4 Jordanzerlegung und Jordansche Normalform 5.5 Ein Beispiel . . . . . . . . . . . . . . . . . .
. . . . .
23 23 28 35 40 45
6 Reellifizierung und Komplexifizierung 6.1 Skalarwechsel bei Vektorr¨aumen . . . . . . . . . . . . . . . . . . 6.2 Die reelle Jordansche Normalform . . . . . . . . . . . . . . . . .
46 46 51
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Mathematisches Institut, Universit¨at Erlangen-N¨urnberg, Bismarckstr. , D–91054 Erlangen, Germany. e-mail:
[email protected], web: www.mi.uni-erlangen.de/ knauf
1
7 Lineare Differentialgleichungen 54 7.1 Berechnung der L¨osung . . . . . . . . . . . . . . . . . . . . . . . 55 7.2 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 8 Euklidische und unit¨are Vektorr¨aume: Fortsetzung 8.1 Orthonormalisierung . . . . . . . . . . . . . . . 8.2 Die adjungierte Abbildung . . . . . . . . . . . . 8.3 Normale Operatoren . . . . . . . . . . . . . . . 8.4 Orthogonale und unit¨are Operatoren . . . . . . . 8.5 (Anti–) Selbstadjungierte Endomorphismen . . . 8.6 Anwendung: Quantenmechanik . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
60 . . . 62 . . . 64 . . . 67 . . . 70 . . . 76 . . . 79
9 Quadriken
80
10 Projektive R¨aume
88
Literatur
96
Index
96
Vorbemerkung: Dieses Skript kann kein Lehrbuch ersetzen. Einige Lehrb¨ucher zur Linearen Algebra sind im Literaturverzeichnis erw¨ahnt. Danksagung: Ich danke Frau I. Moch f¨ur die sorgf¨altige Erstellung dieses Manuskriptes und Frau T. Dierkes f¨ur ihre Korrekturvorschl¨age.
1 Einleitung In diesem zweiten Teil der Vorlesung werden wir zun¨achst die Lineare Algebra in verschiedenen Richtungen vertiefen: 1. Die Objekte der Linearen Algebra sind die Vektorr¨aume, und die betrachteten Abbildungen zwischen ihnen sind linear. Wir werden Methoden kennen lernen, durch geeignete Kombinationen von Vektorr¨aumen (bzw. linearen Abbildungen) neue Vektorr¨aume (bzw. lineare Abbildungen) zu konstruieren. In grober Analogie k¨onnen wir diese Konstruktionen mit den Grundrechenarten Addition, Subtraktion und Multiplikation, mit deren Hilfe man ja Zahlen zu neuen Zahlen kombiniert, ver2
gleichen. Konkret sollen direkte Summe, Quotient und Tensorprodukt von Vektorr¨aumen sowie der Dualraum behandelt werden. 2. Wollen wir den geometrischen Gehalt eines Endomorphismus verstehen, so empfiehlt es sich, diesen durch Wahl einer geeigneten Basis in eine m¨oglichst einfache Form zu u¨ berf¨uhren. Beispielsweise werden wir bei einer Drehung im dreidimensionalen Anschauungsraum einen Basisvektor in Achsrichtung und die beiden anderen senkrecht dazu und zueinander w¨ahlen. Eine besonders einfache Form besitzt eine Matrix, wenn sie diagonal ist. Schon das Beispiel der Drehungen zeigt zwar, dass man nicht jeden Endomorphismus diagonalisieren kann. Allerdings nimmt in der so genannten Jordanschen Normalform der Nichtdiagonalanteil eine einfache Form an. 3. Der Normalformalgorithmus ist besonders n¨utzlich bei der Berechnung von von Endomorphismen . Wir nehmen dabei nichtlinearen Funktionen an, dass die komplexe Potenzreihendarstellung
Funktion eine konvergente
!"$# besitzt, z.B. , und definie ren als . Dieser Ausdruck l¨asst sich dann leicht berechnen, wenn wir die Jordansche Normalform von einsetzen. Eine Anwendung von enormer praktischer Bedeutung stellen dabei die so genannten Linearen Differentialgleichungen der Form
% ( & ) +*,( & &.-0/ '% & * -14 6 5(7 / & ( & 1 - /32
mit Zeitparameter , L¨osungen denn
= =?>
und
( & 3 896* & :(6;< 9* & ! +*@A* &
dar. Diese besitzen die
&.-0/ 97
.
4. Sesquilinearformen und speziell das Skalarprodukt haben Sie schon im letzten Semester kennen gelernt. Sie bilden eine zus¨atzliche Struktur auf dem Vektorraum, die uns im Fall des Skalarproduktes erm¨oglicht, L¨angen und Winkel zu messen. Wir werden die Frage untersuchen, welche Endomorphismen diese Struktur /.B sind dies gerade invariant lassen. Im Fall des Skalarproduktes auf dem die Drehspiegelungen. Diese bilden eine Gruppe (im Beispielfall die Grup6D< pe C ), deren Struktur wir besser verstehen wollen. 3
/ B
5. Die Oberfl¨ache einer Kugel um den Nullpunkt des wird durch alle Dre¨ hungen invariant gelassen, und beim Ubergang zu anderen Bilinearformen gilt Entsprechendes f¨ur Kegel, Paraboloid und Hyperboloid. Wir werden / 2 als Nullstellen quadratischer Gleichungen gegebene Teilmengen des be/ / B trachten, speziell im die Kegelschnitte und im die genannten Fl¨achen. 6. Zwei verschiedene Geraden in der Ebene besitzen genau einen Schnittpunkt, außer, wenn sie parallel sind. Dann ”schneiden sie sich im Unendlichen”, was normalerweise eine vornehme Umschreibung daf¨ur ist, dass sie sich nie schneiden. Was aber, wenn wir diesen Ausdruck w¨ortlich verste/ hinzuf¨ugen, hen? Wieviele Punkte im unendlich Fernen m¨ussen wir zum und welches Gebilde entsteht dann? Diese Frage f¨uhrt uns zur projektiven Geometrie, die unserer (an die euklidische Geometrie des Anschauungsraumes angepassten) Vorstellung zun¨achst fremd, aber ebenso sch¨on wie n¨utzlich ist. 7. Die Ergebnisse der Linearen Algebra werden universell in Mathematik, Naturwissenschaften und Technik genutzt. Daher werden in dieser Vorlesung exemplarisch Anwendungen besprochen, von der die Quantenmechanik bis zur Codierungstheorie.
2 Der Quotientenraum nach einem Unterraum Im Zusammenhang der L¨osungsmenge eines linearen Gleichungssystems haben wir den Begriff des affinen Unterraumes eines Vektorraumes kennen ; gelernt. War , dann existierte ein (eindeutiger) Unterraum
, sodass
-
f¨ur . Gewissermaßen ist also der um verschobene Unterraum . Wir w¨ahlen nun einen Unterraum
. Dieser erm¨oglicht es uns, auf die folgende Relation zu definieren:
97 - "!# -
%$ &
¨ Es handelt sich um eine Aquivalenzrelation, denn ist ja insbesondere eine addi¨ tive Gruppe. Die Aquivalenzklassen dieser Relation sind die affinen Unterr¨aume ' -
f¨ur der Form . ¨ Die Menge der Aquivalenzklassen schreiben wir wie gewohnt in der Form () ( , oder kurz . 4
Die Abbildung ordnet jedem Vektor
-
(
,
den durch ihn gehenden affinen Unterraum
- / B ;
/ B
9
zu.
$ . Wir k¨onnen 2.1 Beispiel
,
Vektor f¨ 7 ur 7 einen B $ des /3B erg¨anzen. Dann schneiden den Vektor zu einer Basis 7 B sich und der zweidimensionale Unterraum nur-0/inB der Null.
' Ist nun gehende
affiner Unterraum, also die zu parallele durch
Gerade, dann schneidet den Unterraum in genau einem Punkt, n¨amlich B B B , siehe Abb. 1. , falls
0
Abbildung 1:
( ¨ Damit ist in genau ein Repr¨asentant jeder Aquivalenzklasse von ent ( halten, und wir haben eine Isomorphie
, konstruiert.
/3B ( Nun ist ein Unterraum, und wir k¨onnen damit auch
zu einem Vektorraum machen.
(
Auf definieren wir nun allgemein, wie bei Faktorgruppen u¨ blich, eine Addition, und zus¨atzlich eine Skalarmultiplikation mit Elementen aus :
" ! ! # #%$ &
7 !
- 97 - 7 -
5
#
&
(
2.2 Satz Mit diesen Verkn¨upfungen wird zu einem –Vektorraum, dem so genannten Quotientenraum oder Faktorraum von nach . ( Die Abbildung
ist linear,
Bew.:
und
3 (
&
Da eine abelsche Gruppe ist, ist der Unterraum automatisch ein Nor( malteiler, sodass nach Satz 3.27 der Linearen Algebra I ebenfalls eine abelsche Gruppe ist. Da alle affinen Unterr¨aume
nicht leer sind, gilt ) (
.
Wegen "!#
# $ ( # $ -
# $
# $ , falls ( , also
¨ , ist auch die Multiplikation der Aquivalenzklassen mit Zahlen repr¨asentantenunabh¨angig definiert.
Die u¨ brigen Vektorraumaxiome u¨ bertragen sich direkt von ( torraum .
-
;
Ist
, dann ist
Quotientenraumes, sodass
dann ist
, also
.
, also
- (
auf den Fak-
der Nullvektor - des . Ist andererseits ,
2.3 Korollar Ist und
ein Unterraum, dann ist ( ) "! & (
Bew.: Nach dem letzten Satz ist f¨ur die Quotientenabbildung ! ( und der Defekt ) ) & ! "! . Nach Satz 8.13 der Linearen Algebra I ist aber 6
(
2.4 Bemerkung Das Beispiel 2.1 k¨onnte dazu verleiten, den Faktorraum
( f¨ur einen Unterraum zu halten, denn tats¨achlich war dort
zu 7 B isomorph. Diese Isomorphie h¨angt aber von der Wahl der Basisvektoren und B ab, anders gesagt gibt es (unendlich) viele zweidimensionale / B ( Unterr¨aume zu denen in der beschriebenen Weise isomorph ist.
Anwendung: Codes. In Definition 5.14 der2 Linearen Algebra I haben wir
– Codes, d.h. –dimensionale Unterr¨aume
des arithmetischen Vektorraumes u¨ ber 2 dem zweielementigen K¨orper (dem Bit) kennen gelernt. Der Quotientenraum ist damit –dimensional. 2.5 Definition Ist +
"$#&%
eine Basis, dann heißt die Matrix
eine Generatormatrix von
,.-. /
Mithilfe von
!
.. .
#('*)
.
k¨onnen wir jedes Codewort 01 eindeutig als Linearkombination 32
9 4256874
2
der Basisvektoren darstellen. Dabei ist 32 256 : . In diesem Sinn generiert also den Code , und der Codierung der Nachricht 32 4256 entspricht die Multiplikation mit . F¨ur die lineare Abbildung ; ; <=
?>
2
,
@32AB!C2D74 ;
gilt dann:
E&FG HI
Andererseits k¨onnen wir nach dem Basiserg¨anzungssatz die Basis 2 zu einer Basis 2 von erg¨anzen. Es sei J
Dieser
–dimensionale Unterraum von U
zu
J
!LKNM*O6PQ3RS
=
2
J >
,
U.V 9
isomorph. Wir betrachten die lineare Abbildung ;
[
=
2 >
2]\
9
,
2
T
2
2 7
I
ist durch
XW 2 2
2
>
9 ?YZ!
32^S
2 S
2
T2
2
I
(1)
von
Komplement¨ar zu (1) ist diesmal
;
PH
[
I ;
[
+
NG :-G / die Matrix, f¨ 2.6 Definition Es sei ur die [ heißt eine Kontrollmatrix des Codes .
2.7 Beispiel Der N –Parit¨atscode besitzt die Generatormatrix V
. ..
... Y
[
T
+
+
2
]
N
> . Dann 2 2
[
Z
7
>
2
<
" 87
9
... )
[
-. /
$ - / . Wird das Wort und die Kontrollmatrix 2 empfangen, dann erlaubt die Berechnung von [
B7
2 0
2
G
¨ zu erkennen, ob ein (einzelner) Fehler bei der Ubertragung aufgetreten ist, denn dann ist [ 7 . >
3 Der Dualraum eines Vektorraums
3.1 Definition Der Dualraum eines
Die Elemente
-
–Vektorraums
7
heißen Linearformen auf
ist der
in den Skalark¨orper 3.2 Beispiel
1.
.
2 ,!
!
97
.
-
,
&&&
7 2 -
7 8
!
–Vektorraum
&
Eine Linearform (auch Lineares Funktional genannt) Abbildung
7 &&& 2
2
ist also eine lineare
. Dann ist die Abbildung
! 2
!
! !
!
linear. Es gibt (mindestens) so viele Linearformen auf , wie es Vektoren
- gibt, denn falls , ist das zugeordnete Funktional verschieden von dem von erzeugten.
2.
!
;A7 7 / ;7 . , der Vektorraum der stetigen reellen Funktionen auf dem Intervall ! - , dann ist die Abbildung Ist %
! % , linear, also ein Element von . Wieder ist die Abbildung ! ,
;A7 7 /
injektiv.
3. Eine andere Klasse von Funktionalen auf - ;A7 Auswertung an einer Stelle gegeben:
-
A
&
Wir wollen nun der Frage nachgehen, ”wie groß” der Dualraum zu ist.
ist durch die
im Vergleich
97 7 2 sei eine Basis eines –Vektorraums . Dann & & & 7 & & & 7 2 mit - ,
7 '7 & & & 7 5 die zu duale Basis von . ist tats¨achlich eine Basis von , und somit ist 3.4 Satz Die duale Basis ! .
3.3 Definition heißt
Bew.:
Lineare Unabh¨angigkeit: 7 7 2 F¨ur die Koeffizienten ist die Linearform & & & , ausgewertet auf dem –ten Basiselement von , gleich .
Daher ist
; 2 .
nur dann der Nullvektor des Dualraums
9
2 2 )
!
, wenn
&&&
7 & - & & 7 2 ) : 9 . Dann ist Es sei 2 eine beliebige Linearform auf und . Mithilfe der Basis von und der dualen Basis von erhalten wir also den Isomorphismus 2 2
, &
Allerdings ist dieser nicht kanonisch, d.h. ohne Basiswahl definierbar, denn f¨ur eine andere Basis von erhalten wir einen anderen Isomorphismus. Außerdem ist es wichtig zu beachten, dass die Linearform nicht nur vom 97 7 2 & & & abh¨angt. Basisvektor , sondern von der Wahl aller Basisvektoren
2
3.5 Bemerkung Ist aber ein arithmetischer Vektorraum, dann besitzt 7 7 2 dieser schon die kanonische Basis . Wenn wir in diesem Fall das Ele&&& ment der dualen Basis mit dem Element identifizieren, erhalten wir durch 2 2 lineare Fortsetzung einen ’kanonischen’ Isomorphismus zwischen und .
Zwar k¨onnen wir einen Vektorraum nicht ohne Zuhilfenahme einer Basis in abbilden, wohl aber in den Bidualraum , den Dualraum des Dualraums:
3.6 Satz Die lineare Abbildung, genannt kanonischer Homomorphismus
. ist injektiv, und f¨ur bijektiv.
- 7 -
Bew.:
Injektivit¨at: - Es sei , Basis von Linearform mit
;
. Dann existiert nach dem Basiserg¨anzungssatz - eine mit f¨ur ein Basiselement. Ist nun die
. )
7
, also - ; $ . Surjektivit¨at f¨ur : dann ist
A !
Es ist nach Satz 3.4
) 3 10
und bijektiv ist.
ist injektiv. Aus Satz 10.2 der LA I folgern wir, dass
Ist aber unendlich-dimensional, dann ist im Allgemeinen und nicht isomorph sind, zeigt das folgende Beispiel.
. Dass
der Vektorraum der Polynome u¨ ber . eine,Folge - , dann ist mit Koeffizienten , 2 2 - . ein lineares Funktional, also
- , also F¨ur ist auch , denn es gibt ein mit + . -
in der Form onnen wir ein beliebiges Funktional Andererseits . k¨ mit schreiben. 3.7 Beispiel
Ist
Damit ist isomorph zum –Vektorraum Polynomraum selbst isomorph zum Unterraum
0 -
5 - 2
+;
der Folgen , w¨ahrend der
f¨ur
5 5 $
der abbrechenden Folgen ist. Dieser Unterraum ist viel kleiner als . ;7 7 Sei z.B. der zweielementige K¨orper. Dann gibt es genau $ 5 - 2 Polynome -ten Grades. Zusammen mit dem Nullpolynom ergibt das immer noch abz¨ahlbar viele Polynome. Andererseits ist nicht abz¨ahlbar, 2 \ 2 ;A7 ;A7 / 2 denn die Abbildung , ist surjektiv1 , aber nicht abz¨ahlbar.
Funktionale sind so wichtig, dass eine mathematische Disziplin, die Funktional - analysis, nach ihnen benannt ist. Der Ansatz ist dabei der, einen Vektor - m¨oglichst genau dadurch zu bestimmen, indem man Funktionale auf auswertet, d.h. berechnet. Dabei ist f¨ur
#
\ ) -
# . ! # $
ein affiner Unterraum, und Schnitte affiner Unterr¨aume sind affine Unterr¨aume im Allgemeinen kleinerer Dimension. 1
Hier wurde in schlampiger Schreibweise die Null bzw. Eins aus
11
mit der aus
identifiziert.
3.8 Beispiel Beispielsweise l¨asst sich das von einem Mikrophon in einem Zeitin;A7 ;A7 7 / tervall aufgenommene Signal als Element des Vektorraums auffassen. Soll nun ein Telefongespr¨ach digital u¨ bertragen werden, dann wird im & Abstand von ca. 1/10 000 sec. das Signal gemessen, d.h. es werden die Funk '7 7 ( & - A
& -0/ tionale , mit ausgewertet, und &&& die Folge dieser (gerundeten) reellen Zahlen wird u¨ bertragen. Nat¨urlich l¨asst sich aus diesen Zahlenwerten nicht mehr exakt, aber doch n¨aherungsweise rekonstruieren, wenn man annimmt, dass der Anteil hoher Frequenzen am Tonsignal gering ist. Nach dem so genannten Abtast-Theorem von ( & Shannon kann man auf diese Weise T¨one mit einer Frequenz bis zu ; ;'; u¨ bertragen.
#
#$
Die lineare Algebra behandelt neben den Vektorr¨aumen die linearen Abbildungen ¨ zwischen ihnen. Wie verhalten sich diese beim Ubergang zu den Dualr¨aumen?
3.9 Definition Es sei eine lineare Abbildung. Dann heißt die lineare Abbildung
die zu
>
>
! !
transponierte Abbildung.
! -
- 7
3.10 Satz Sind und endlich-dimensionale –Vektorr¨aume und * 4 dann gilt f¨ur die darstellende Matrix von bez¨uglich der Basen von und von :
*
4
*
>
9 7 >
d.h. > ist die darstellende Matrix der transponierten Abbildung bez¨uglich der dualen Basen. Bew.: Ist
97
&&&
7
7
und
6*
.
oder auch Andererseits gilt f¨ur
. 4
>
2
7 & & & 2 , dann ist
> 2
12
6*
,
oder
)
>
. . 7 - 7
Offensichtlich gilt allgemein f¨ur
> >
und 0- > >& und
>
Aber da bei der Transposition die Richtung umgekehrt wird, gilt: 3.11 Satz
>
F¨ur
- 7
und
- 7
ist
> >
>
! - ist > ! ! ) ! ! @ > ! > > ! )
. > > ! ! 3
> ) ! ! . - Ist , dann k¨onnen wir diesen Vektor als lineares Funktional auffassen; ist dann ein Unterraum, den wir als orthogonal zum bezeichnen Unterraum k¨onnen. Allgemein definieren wir: ein Unterraum, so heißt 3.12 Definition Ist - ! ! +; f¨ur alle ! - $ das zu orthogonale Komplement.
Ist , dann identifizieren wir nach Satz 3.6 den Bidualraum
Bew.: F¨ur alle
mit
3.13 Satz
:
ist . , - sind auch -
ist ein Unterraum, und f¨ur
Bew.:
Es ist- ; - , und mit 7 und
. Mit ! - ist auch ! - , denn wegen Satz 3.6 ist , sodass - - - 7 A ! ; f¨ur!alle
; -
f¨ur alle
- ! ; - &
f¨ur alle
13
! -
G¨abe es ein , dann k¨onnten wir nach dem Basiserg¨anzungs 97 7 satz diesen von einer Basis & & & von 7 7 linear unabh¨ angigen Vektor 2 zu dieser hinzuf¨ugen und zu einer Basis von erg¨anzen, sodass &&& !
- . Wir definieren nun durch S
!
-
Damit ist , denn auf der Basis !
S . Andererseits ist S . Widerspruch!
3.14 Satz Ist
ein Unterraum und
"!
S
&
von und , also
7 7 ) & & &
S
verschwindet -
S
, dann gilt
&
97 7 von zu& & & zei-2 Wegen ! +; 7 f¨ur 7 - '7 & & & 7 # $ und - # 7 & & & 7 5 $ gilt jedenfalls &&& 2 . ! 2 - , also !
F¨ ur die; umgekehrte sei ! 7# - ' 7 Inklusion - 7 7 2 , . & & & $ . Damit ist &&& . - 7 gilt 3.15 Satz F¨ur ) , ) > und > & Bew.: Nach Definition von > ist > ! - ! - mit ! $ & Andererseits ist , - mit . 3 ; ist A) ; $ & ! F¨ur > gilt daher A) ! ! ; - ,97 , ist. sodass >
!
Bew.:
97
7
Es sei & & & eine Basis von , die wir zu einer 7 Basis7 2 von erg¨anzen. Dann ist mit der dualen Basis &&&
7 7 2 gen: . &&& S
S
S
14
! - mit ! . Sei nun eine Basis von und (f¨ur eine Indexmenge ! ) eine Basis von . Wir definieren die Linearform durch ihre Werte auf dieser Basis: ! ; 77 -- & Obwohl ein affiner Unterraum von ist, ist die Linearform auf 7 - ! - , . ihm konstant, denn f¨ur ist ! die gew¨unschte Eigenschaft ! . Nach dieser Definition hat -
F¨ur die umgekehrte Inklusion ist zu zeigen: F¨ur alle
existiert ein
\
\
\
! > ist- ! ! -
Nach Definition von
>
;
-
! $
) +;
$
&
Da wir jetzt eine geometrische Interpretation der von der transponierten Matrix induzierten linearen Abbildung besitzen, k¨onnen wir ein offen gebliebenes Problem des letzten Semesters zu den Akten legen: 3.16 Satz Sei gleich.
* - 4
5(7 . Dann sind Zeilenrang und Spaltenrang von *
. * Bew.: Es sei die lineare Abbildung , und > ! 8* 2 > . Dann ist* der Spaltenrang * die transponierte , Abbildung, also > ,von , und der Zeilenrang von > gleich gleich > . Nach Satz 8.13 LA 1 ist ! "! & Nach Satz 3.14 ist 3 "! , 7
2
)) > , > & Zusammen ergibt dies . > und nach Satz 3.15 ist
Anwendung: Codes. Wir bezeichnen wieder den zweielementigen K¨orper mit . 15
3.17 Definition Es sei
Dann heißt Gilt
2 ein linearer Code. 2 2 der zu duale Code.
3
, dann heißt
Nach Satz 3.13 ist immer C .
wieder ein Unterraum und damit ein linearer Code. Außerdem ist
selbstdual.
+
3.18 Satz Eine Matrix , - / ist genau dann Generatormatrix des linearen ; ; Codes , wenn sie Kontrollmatrix von ist.
Bew.: Es sei von ist, dann gilt
>
2
E&FG
also ist der zu
Damit ist
duale Code
die lineare Abbildung ;
IPH
>
. Falls
Generatormatrix
;
von der Form
Kontrollmatrix von
32,:!C2 7 ;
IPH
> I
. Die umgekehrte Implikation folgt analog.
2
W Um nun effektiv zu decodieren, zerlegen wir den Vektorraum in Nebenklassen 2 nach dem Unterraum . Dabei w¨ahlen wir als Repr¨ asentanten < der Ne ; benklasse einen Vektor minimalen Gewichts, den sog. Nebenklassenf u¨ hrer. Nun besitzen [ alle Elemente einer Nebenklasse unter der Surjektion das gleiche Bild. Empfangen wir 2 also am Ende eines Kanals das Wort , dann k¨onnen wir seine Nebenklasse W bestimmen, indem wir sein sog. Syndrom
[
>
G
2]\
berechnen. Wir vergleichen dieses Syndrom mit einer Liste der Syndrome Repr¨asentanten und decodieren, indem wir den Code
!
f¨ur
[
>
[
[ >
der
>
zuordnen. Da in seiner Nebenklasse minimales Gewicht besitzt, hat minimalen Abstand von . Es kann aber noch weitere Codew¨orter mit gleichem Hammingabstand * * geben.
3.19 Beispiel Simplex– und Hammingcodes 2 Zur Konstruktion des bin¨aren Simplex–Codes , betrachten wir die ,. –Matrix mit ! , deren Spalten die (beliebig angeordneten) von Null verschiedenen Vektoren aus sind. F¨ur ergibt sich (in lexikalischer Ordnung)
16
Jede Zeile von besitzt Einsen und Nullen, denn es fehlt ja nur der Null(spalten)vektor aus . Das gleiche gilt f¨ur jede von Null verschiedene Linearkombination dieser Zeilen. von , ; wir erkennen, dass die Codew¨orter a¨ quidi ist nun Generatormatrix \ stant sind mit Abstand . [ Fassen wir nun ! als Kontrollmatrix auf, dann nennen wir den entsprechenden zum Simplexcode dualen Code , den Hamming–Code , 2 . Der Minimalabstand zweier W¨orter in diesem Code ist \
\
,N
, Dies sehen wir durch Angabe eines Wortes minimalen Gewichts. Die den Einsen in diesem Wort entsprechenden Spalten von sind linear abh¨angig, denn und ihre Zahl ist die Gesamtzahl solcher abh¨angiger Spalten, also gleich 3. 0 > Der Hamming–Code gestaltet damit die Korrektur eines Fehlers, entsprechend den Hammingkugeln vom Radius 1 um die Codew¨orter. Diese Kugeln umfassen jeweils neben dem Codewort noch 2 \ weitere W¨orter, also insgesamt W¨orter. Es gibt 2 Codew¨orter. Damit ist der Hammingcode perfekt, d.h. die insgesamt Hammingkugeln f¨ullen aus. Um f¨ur den Hammingcode die Decodierung durchzuf¨uhren, erstellen wir zun¨achst die Liste der Nebenklassenf¨uhrer und ihrer Syndrome. Wegen der Perfektheit von k¨onnen und m¨ussen wir die Kugel vom Radius 1 um die Null als Menge der Nebenklassenf¨uhrer w¨ahlen, also 2 !< 4 ,
!< 4
I
[
,
[
Damit ist das Syndrom > 4 und Transponierte des –ten Spaltenvektors von . und empfangen wir das Wort Ist z.B. uhrers [ > , entsprechend dem des Nebenklassenf¨ korrigieren also, indem wir als das Codewort
>
N
I
ist f¨ur
4N
, so ist sein Syndrom . Wir
interpretieren. Da wir die Spalten der Kontrollmatrix von , lexikalisch geordnet haben, k¨onnen [ wir sogar aus > direkt ablesen, an[ welcher Stelle von wir gegebenenfalls ein Bit korrigieren m¨ussen, hier also wegen > Z an der Stelle
:7
W
07
W
17
?7
4 Direkte Summen von Vektorr¨aumen In diesem Kapitel geht es darum, mehrere Vektorr¨aume zu einem neuen Vektorraum zusammenzuf¨ugen. Dies scheint eine einfache Operation zu sein; allerdings gilt es, vier verwandte Begriffe auseinander zu halten: 1. Die Summe
!
-
!
!
mit
-
$
von Unterr¨aumen . In der Darstellung von sind nur endlich viele ; + . Falls nur endlich viele Unterr¨aume summiert werden, schreibt man kurz
&&& 2& - f¨ur alle
2. Ist die Darstellung in 1. einer inneren direkten Summe und schreiben
3. F¨ur ein System schen Produkt
von
statt
!
und
#
!
7 -
!
#
f¨ur
&
–Vektorr¨aumen k¨onnen wir auf dem kartesi-
durch
eine
- $
eindeutig, sprechen wir von
und
#-
–Vektorraumstruktur definieren, die das direkte Produkt der
heißt.
- ungleich Null sein k¨onnen, anders. Diese ist der Unter-
4. W¨ahrend hier unendlich viele Faktoren ist dies bei der a¨ ußeren direkten Summe der vektorraum
-
-
18
; $
$&
Ist die Indexmenge endlich, dann stimmen (¨außere) direkte Summe und direktes Produkt u¨ berein,2 im Allgemeinen aber nicht. Im endlichen Fall schreiben wir oft
&&&
2
statt
&
Der Unterschied zwischen 1. und 2. ist uns schon bekannt. Insbesondere ist + ; keine direkte Summe, wenn .
4.1 Beispiel Der Unterschied zwischen 3. und 4. wird am Beispiel des Polynom raums deutlich. Dieser ist isomorph zur a¨ ußeren direkten 2 Summe eindimensionaler Vektorr¨aume, wobei dem Polynom die Folge
7 7 7 2 7 ;A7 A; 7 &&& &&&
zugeordnet wird. Andererseits haben wir schon gesehen, dass der Dualraum zum direkten Produkt ist.
isomorph
Ein Unterschied zwischen 2. und 4., also der inneren und der a¨ ußeren direkten Summe, ist zun¨achst einmal die Tatsache, dass bei 2. die Vektorr¨aume schon Unterr¨aume eines ihnen gemeinsamen Vektorraums sind. Allerdings gilt dies mit den Injektionen
-
,
;
7 7
(2)
auch f¨ur die a¨ ußere direkte Summe. Dann ist n¨amlich der Unterraum zu isomorph, und die a¨ ußere direkte Summe ist gleich der inneren direkten Summe
&
2
Dass dasselbe Objekt einmal Summe und einmal Produkt genannt wird, liegt an der unterschiedlichen Perspektive: Das Produkt zweier (endlicher) Mengen und hat die Kardinalit¨at , daher der Name. Sind diese Mengen gleichzeitig Vektorr¨aume, dann haben wir die M¨oglichkeit, Vektoren als Vektoren bzw. aus aufzufassen und zu addieren.
19
Daraus schließt man f¨ur a¨ ußeren direkten Summe
insbesondere, dass die Dimension der
2
2
(3)
ist. Insbesondere gilt f¨ur die a¨ ußere direkte Summe eines Vektorraums mit sich
selbst )
(w¨ ahrend f¨ur die Summe von Unterra¨ umen gilt, denn !). Direktes Produkt und direkte Summe linearer Abbildungen lassen sich in der folgenden Form einf¨uhren:
4.2 Definition Es seien die linearen Abbildungen
-
gegeben. Dann heißt die Abbildung
,
. Die Einschr¨ankung des direkten Produktes auf heißt die direkte Summe der .
das direkte Produkt der
Eine Basis f¨ur die a¨ ußere direkte Summe von Vektorr¨aumen erh¨alt man durch disjunkte Vereinigung der Basen der Summanden unter Benutzung der Injektionen (2). Bei einer endlichen a¨ ußeren direkten 7 7 & & & 2 endlich-dimensiona Summe ler Vektorr¨aume mit Basen &&& ist dann
" 9 97 7 97 7 7 7 7 2 2 97 7 2 2 &&& &&& &&& &&&
%
&&& 2. eine geordnete Basis von - 4 Ist die darstellende Matrix des Endomorphismus bez¨uglich der Basis" , dann besitzt die darstellende Matrix der Summen-Abbildung bez¨uglich die Blockdiagonalform
4
&&&
2!
20
8 .. . . .. . . . %
&
Eng verbunden mit dem Begriff der direkten Summe ist der der Projektion.
-
4.3 Definition Ein Endomorphismus
wenn gilt.
mit
!
Bew.:
!
Ist
!
4.4 Satz Es sei Projektion, und
und
-
. Dann ist mit
;A7
!
heißt Projektion oder Projektor,
$
, also
oder
Wegen
Wegen seits ist
!
.
A@
mit . Also ist ,diealsoSumme
!
muss dann auch schon (4) gelten.
!
!
;
"
/
.
. Anderer-
ist auch im Bild von .
,
$ $ und - ein Vektor
7
9 , , denn ) 7 7 9 7 .
9 . - 7. ;
. Hier ist $ der zu 7
und senkrechte Unterraum.
Etwa f¨ur
1. Die Identische und die Nullabbildung sind Projektionen.
2. Ist ein -Vektorraum mit dem Skalarprodukt 7 9
der L¨ange , dann ist Projektor auf den eindimensionalen Unterraum
wegen - ; Ist , dann ist ; ist , dann ist
;7 $. also . Aus (4) ergibt sich daher
4.5 Beispiel
eine
.
(4)
direkt. Andererseits ist nach dem Dimensionssatz , sodass wegen (3)
!
- , dann existiert !
; ein -
auch
B
-0/
ergibt sich 21
3
B B
B
.
Ist
, dann besitzt nach Definition jeder Vektor 7 $ ; - ist die Abbildung wobei nur endlich viele sind. F¨ur jedes linear. - direkte Summe der Unterr¨aume die eindeutige Zerlegung
Definieren wir daher
dann ist
! $
9 ) ,
F¨ur endliche Summen (
und
!
mit
durch
7 ; 7 '7
+;
f¨ur
oder kurz
&
) gilt
In diesem Sinn ist die direkte Summe - mit einer Familie von Projektoren verkn¨upft. Ein Endomorphismus heißt diagonalisierbar, wenn eine Basis von Eigenvektoren von existiert.
-
4.6 Satz Ein diagonalisierbarer Endomorphismus sionalen Vektorraumes besitzt die Form
eines endlichdimen-
<7
(5)
wobei
Projektor auf den Eigenraum
,
! $ !
zum Eigenwert
22
0-
und
ist. Es gilt
&
(6)
Bew.: Da von den Basisvektoren aufgespannt wird, die Eigenvektoren zum Eigenwert sind, ergibt sich die Darstellung von als direkte Summe. - A Es ist f¨ur einen Eigenvektor zum Eigenwert
&$
auf) und analog Dieses Produkt verschwindet f¨ur (denn dann tritt f¨ur . Im Fall sind alle Faktoren des Produktes Eins. Die mittlere Identit¨at in (6) folgt aus der ersten, wenn wir die Summe der Projek - toren auf die (eindeutige) Summendarstellung mit - eines Vektors anwenden. Analog folgt (5).
$
! ! ! !
! ! ! ! &
5 Die Jordansche Normalform ¨ ¨ 5.1 Aquivalenz und Ahnlichkeit
4 5
7
und linearen AbWie wir wissen, besteht zwischen Matrizen aus bildungen – bzw. 5 –dimensionaler –Vektorr¨aume bzw. ein enger Zusammenhang.
97 7 2
97 7 . & 7 & & eine Basis von &&& Ist eine Basis von und 6 5 4
- 4 , dann ist die darstellende Matrix diejenige - 2 Matrix, bez¨uglich derer der Vektor unter auf den Vektor mit
!
!
4 3
abgebildet wird. Wir stellen uns nun die Frage, wie wir durch geeignete Wahl der Basen eine besonders einfache Gestalt der darstellenden Matrix erreichen k¨onnen. Basiswechsel entspricht der Multiplikation mit einer regul¨aren Matrix. Wir definieren daher:
* 7
5.1 Definition Zwei Matrizen - 657 - Matrizen
und
- 4 5 7 7 mit
*
23
heißen a¨ quivalent, wenn es
gibt.
4 5 7 ¨ Offensichtlich ist diese Relation eine Aquivalenzrelation auf , denn 7 aus der Gruppeneigenschaft von folgen die Eigenschaften von Reflexivit¨at, Symmetrie und Transitivit¨at. ¨ Unsere Aufgabe besteht nun darin, aus jeder Aquivalenzklasse einen eindeutigen Repr¨asentanten auszuw¨ahlen. Dieser Normalform soll man die Charakteri¨ stika der Aquivalenzklasse m¨oglichst sofort ansehen. Wir kennen schon ein solches Charakteristikum, 7.Rang, also * die Dimensi2 den on des Bildes der linearen Abbildung . Denn wegen der Invertierbarkeit von und gilt
, * ! 6* & ; , * 7 5 . Besonders Da Zeilenrang gleich Spaltenrang ist, gilt - ;A7 7 7 5 einfache Matrizen vom Rang &&& $ sind sicher die .
$ ; 77 -04 65 7 mit & - 4 DA7 gleich Beispielsweise ist
(( ((
!
(( ( *
,
5.2 Satz Ist nicht zu , falls
( , ( * - 4 5 7
, dann ist
,
Es gilt dann Da
4
!
. )
, zu
B
( (
&
a¨ quivalent, aber
. , *
! ist . Wir
zu einer Basis
'7 7 2 sind linear & & & . ! Die
Der Defekt der linearen Abbildung 7 7 erg¨anzen eine Basis S & & & von . 97 7 , &&& und setzen unabh¨angig, denn andernfalls w¨are
7 7 2 2 &&& einer Basis des .
.
Bew.:
6*
, ist
*
. Wir erg¨anzen sie zu
nicht zu a¨ quivalent.
Solange wir also keine Zusatzstrukturen wie z.B. Skalarprodukte auf den endlich dimensionalen Vektorr¨aumen und ber¨ucksichtigen, hat bez¨uglich geeigneter . Basen die lineare Abbildung die Form ist mit anderen Worten die einzige Invariante von unter Basistransformationen.
24
5.3 Korollar Sind 7 mit mit
7 –Vektorr¨ a ume und endlich-dimensionale , dann existieren - und
&
und
-
-
Ist nun , also ein Endomorphismus, dann wird man sich im Allgemeinen nicht den Luxus zweier Basen auf leisten. Die Frage, wie durch geschickte 4 4
Wahl nur einer Basis von die darstellende Matrix auf eine m¨oglichst einfache Normalform (die so genannte Jordansche Normalform) gebracht werden kann, ist nun schwieriger als die eben untersuchte Problematik. Insbesondere k¨onnen wir nicht mehr erwarten, dass diese Normalform immer 4 657 eine Diagonalmatrix aus ist, und zwar aus zwei, in den der Definition folgenden Beispielen illustrierten, Gr¨unden.
7 - - 5.4 Definition Sind und existiert mit \ , dann heißen und a¨ hnlich oder konjugiert. * 7 -@4 57
* \ - 657 Sind * und existiert
mit , dann
heißen und a¨ hnlich oder konjugiert.
¨ ¨ Ahnlichkeit ist wieder eine Aquivalenzrelation, und der Rang ver¨andert sich unter ¨ Konjugationen nicht. Allerdings ist diese Zerlegung in Aquivalenzklassen feiner als die vorher untersuchte, denn das Spektrum ist unter Konjugationen invariant.
50
* 7
) sind nur * 6* ;7 , $
-@4 7
. Zwei K¨orperelemente 5.5 Beispiel 1. dann a¨ hnlich, wenn sie gleich sind. 5 7 * ? 7 ? ,*
2. . Zwar ist und sind ! also ; a¨ quivalent, aber nicht a¨ hnlich, denn $.
ist zu u¨ berhaupt keiner Diagonalmatrix konjugiert, denn diese h¨atte das , 3
gleiche Spektrum, m¨usste also die Nullmatrix sein, was wegen nicht sein kann. \ * , ; - 4 7 / ist f¨ur zu keiner (reellen) Diago3. ! nalmatrix konjugiert, denn das charakteristische Polynom besitzt dann keine reellen Nullstellen.
*
4 7)
als Element von Fasst man allerdings
wobei\ nalmatrix konjugiert, \ . \ , also
Matrix z.B.
25
*
dann ist zur Diago auf, und die konjugierende
Das letzte Beispiel zeigt einmal wieder, dass die komplexen Zahlen sich algebraisch einfacher verhalten als die reellen.
5
5.6 Definition
1. Zerf¨allt jedes (normierte) Polynom in Linearfaktoren, d.h.
$ & & & $ ! 2 97
) !
dann heißt der K¨orper
-
5 –ten Grades
algebraisch abgeschlossen.
2. Ein K¨orper heißt algebraischer Abschluss des Unterk¨orpers , wenn algebraisch abgeschlossen ist, es aber keinen algebraisch abgeschlossenen K¨orper gibt. mit
5.7 Satz Jeder K¨orper besitzt einen algebraischen Abschluss (bis auf Isomorphie) eindeutig. Bew.: Siehe z.B. [6].
/
, und dieser ist
5.8 Beispiel Der algebraische Abschluss des K¨orpers -@/ der reellen Zahlen muss enthalten, denn in zerf¨allt das Polynom in die Line ! arfaktoren . - Im Prinzip k¨onnte es nun komplexe Polynome geben, die in nicht in Linearfaktoren zerfallen. Der (in der Analysis bewiesene!) Fundamentalsatz /
der Algebra besagt aber, dass algebraisch abgeschlossen ist. Also ist .
Wir wollen nun zun¨achst das Normalformproblem f¨ur Endomorphismen bzw. quadratische Matrizen u¨ ber abgeschlossenen K¨orpern behandeln und danach auf / allgemeine K¨orper, insbesondere , zur¨uckkommen: 5.9 Definition Ein Endomorphismus
5 -
nilpotent, wenn es ein heißt dann Nilpotenzindex, diagonalisierbar, wenn besteht.
Eine Matrix
* - 4 65(7
mit
2 ;
eines
–Vektorraumes
heißt
nilpotent, wenn es ein heißt dann Nilpotenzindex,
mit
* 2 ;
26
5
gibt, und das kleinste solche
eine Basis besitzt, die aus Eigenvektoren von
heißt
5 -
-
gibt, und das kleinste solche
5
diagonalisierbar, wenn sie konjugiert zu einer Diagonalmatrix ist.
-@/
5
1. F¨ur $ ist der Endomorphismus
, der einem Polynom seine Ableitung zuordnet, nilpotent mit 5 2S ; 2 5 2 Nilpotenzindex , denn , aber f¨ur . 58 ; ist aber (außer f¨ur ) -0/ ) ; nicht diagonalisierbar, denn nur die konstanten Polynome $ sind Eigenvektoren von .
5.10 Beispiel
. 8 2 ( ¨ 2. Uber dem gleichen Vektorraum ist der Endomorphismus nicht nilpotent, aber diagonalisierbar, denn besitzt die Basis von Eigen 2]\ - ;7 7 5 ( vektoren der Form mit den Eigenwerten &&& 5 2 ! 2 (dabei ist f¨ur gerade l¨asst man den Nullvektor weg).
$ ;
¨ 3. Uber dem gleichen Vektorraum ist der Endomorphismus 5 ; weder nilpotent (denn er erh¨alt den Grad von ) noch f¨ur diagonalisierbar (denn die konstanten Polynome sind die einzigen Eigenvektoren von ).
Die nilpotenten und die diagonalisierbaren Endomorphismen bzw. Matrizen werden die Bausteine sein, aus denen wir die Jordan-Normalform konstruieren. * Als Normalform einer diagonalisierbaren Matrix w¨ahlen wir eine Diagonal* * matrix, zu der konjugiert ist. Diese besitzt die Eigenwerte von als Diagonalelemente und ist somit bis auf Permutation der Diagonaleintr¨age eindeutig durch * bestimmt.
5.2 Nilpotente Endomorphismen
Um Normalformen f¨ur nilpotente Matrizen zu konstruieren, definieren wir f¨ur die nilpotente Matrix
-04 7
,
\
&
Diese besitzt also in der oberen Nebendiagonale lauter Einsen, und alle anderen Eintr¨age sind Null. Der Nilpotenzindex von ist denn besitzt außer Einsen in der –ten oberen Nebendiagonale nur Nullen, z.B.
((
B
,
B
27
und
(((
BB
&
Durch direkte Summenbildung k¨onnen wir nilpotente Matrizen der Form
7
mit
5.11 Beispiel
"
-04 7
bilden, wobei ist. ( ( B
B
, ((
7 -
&&&
Deren Nilpotenzindex ist aber nicht etwa , sondern nur
*
* .
(7)
( (( (((( ((
.
7 & & & 7 , denn
Wir wollen nun zeigen, dass jede nilpotente Matrix zu einer Matrix der Form (7) konjugiert ist, sodass wir letztere als Normalformen w¨ahlen k¨onnen. Um die Geometrie des Problems herauszuarbeiten, wechseln wir zu nilpotenten Endomorphismen u¨ ber. Schreiben wir - ,
f¨ur die der Matrix zugeordnete lineare Abbildung, dann f¨allt auf, dass we 7 7 '
;
gen und
\ & & & f¨ur die kanonische Basis 7 7 & & & des dieser Vektorraum die Basis
7 7
97
&&&
7
\
! !
besitzt, wir also eine Basis des Vektorraumes durch wiederholte Anwendung des - nilpotenten Endomorphismus auf einen einzigen Vektor
k¨onnen. - gewinnen Dabei h¨atten wir statt einen beliebigen Vektor mit nicht verschwindender –ter Komponente zum Ausgangspunkt w¨ahlen k¨onnen.
!
!
5.12 Definition Ein –dimensionaler Unterraum heißt zyklisch bez¨uglich - des Endomorphismus , wenn es einen Vektor gibt, sodass
!
!
!
!
7 7 97
!
;
&&&
7
\
!
eine Basis von
ist.
heißt dann erzeugender Vektor.
28
ist und
.
!
5.13 Beispiel 1. Bez¨uglich des Ableitungsoperators dem Po5 - auf / lynomraum ist jeder Unterraum $ ! +5 zyklisch, wobei jeder Vektor mit erzeugend ist.
!
W¨ahlen wir als erzeugenden Vektor sich als Basis
2 7 2]\ 7
&&&
In dieser Basis besitzt 2.
7 7 !
5 7
die Form
Bez¨uglich des Operators ; mit " ist der Vektor
-ten Stelle) erzeugender Vektor von
das Monom
2
5
5
2
7
7
& & & 5 !
2]\ 7 2
, also die Normalform.
auf ; dem Summenraum 1; 1;
& "& &
, dann ergibt
.
&&&
"
(mit
&
"
an der
*
-
Nehmen wir einmal an, wir w¨ussten schon, dass jede nilpotente Matrix 4 7 konjugiert zu einer Normalform (7) ist, dann m¨ussten wir nur zyklische Vektoren finden, um die konjugierende Matrix zu berechnen. Wir gehen - wieder zum geometrischen Problem nilpotenter Endomorphismen u¨ ber. Was wir zun¨achst berechnen k¨onnen, sind die Kerne der iterierten Abbildungen , und tats¨achlich reicht das aus. 2]\ So ist jeder Vektor in Beispiel 5.10.1. erzeugender Vektor. Im allgemeinen Fall ist zun¨achst zu beweisen, dass direkte Summe von Unterr¨aumen ist, sodass die bez¨uglich zyklisch sind. Die vorhandenen Daten sind zun¨achst die Dimensionen
!
%
;A7 & & & 7 . Aus diesen lassen sich die Dimensionen der zykli
der Kerne schen Unterr¨aume berechnen. Ist der Nilpotenzindex von , dann gilt
und von
%
S
S
%
; 7 $ &&&
f¨ur , denn w¨aren die Dimensionen
f¨ u r ein
von gleich, dann w¨are auch , also auch . S &&&
5.14 Lemma
Es ist
\ S
29
+;A7
7 ! &&&
.
und
. ( der Quotientenr¨aume . 7 - ! - .! Mit anderen Worten: Sind und , dann ist auch . - . erzeugt injektive Abbildungen
\
S
\
S
\
! ) - . - $ + Es sei ! - . Wir m¨ussen zeigen: Ist . ! - , dann ist !
Bew.:
S
S
\
S
\
\ . . :
. .
Der erste Teil des Lemmas besagt aber gerade \ Aus S folgt nur und nicht etwa S S . Die sind also im Allgemeinen nicht surjektiv, bilden also nur Abbildungen S injektiv in einen Unterraum von Setzen wir nun
% % ! % \ !
#
dann ist
\
ab.
!
"! % ! % )
S
!
\
7
(8) (9)
S
die Kodimension dieses Bildes in . S ahlerei n¨utzt uns jetzt bei der Konstruktion einer Basis von Diese Dimensionsz¨ , bez¨uglich derer die nilpotente Normalform (7) besitzt.
'7 7 Wir w¨ahlen n¨amlich f¨ur & & & Vektoren
7 & & & 7 - ( so, dass sie Repr¨asentanten einer Basis von Dies ist m¨oglich, # ( sind. denn ihre Anzahl ist gleich der Dimension von . Diese Vektoren nennen wir primitiv, und leiten aus ihnen die Vektoren 9 +;A7 7 ! '7 7 # '7 7 &&& &&& &&&
S
S
ab. Deren Zahl ist gleich
$ #
$ %
! % !
S
%
und tats¨achlich bilden sie eine Basis von
30
.
% ! % \ :) %
97
5.15 Satz
1. F¨ur
7 &&& \
eine Basis von 2. Die Vektoren
'7
;A7
bilden eine Basis von
7
7 &&&
'7 7 # &&&
.
&&&
'7 7 # 7
7 7 &&& &&&
7 !
7 & & & 7
7 & & & 7 # '7 & & & 7 mit erzeugendem Vektor und besitzen Di
\
sind zyklisch bez¨uglich mension .
.
3. Die Unterr¨aume
4.
(\
9
repr¨asentieren die Vektoren
ist die innere direkte Summe dieser Unterr¨aume
%
&
Bew.: (Siehe auch Brieskorn, p. 15 [1]):
1.
7 & & &
F¨ur
7
(
S ist eine Basis von
! also ( nulldimensional; ( repr¨ a sentieren . bewiesen, und wir wollen sie \
S
Behauptung 1. sei schon f¨ur f¨ur beweisen. Wir wissen also, dass die Vektoren
9 '7 7 '7 7 # &&& &&& eine Basis von repr¨asentieren. Wegen der im letzten Lemma bewiesenen Injektivit¨at von repr¨asentieren ihre Bilder unter eine 7 7 - sind Basis von . Die primitiven Vektoren & & & erg¨anzen. nun gerade so gew¨ahlt, dass sie diese zu einer Basis von
\
S
S
S
2. W¨aren diese Vektoren linear abh¨angig, g¨abe es also eine Linearkombination der , die eine nichttriviale Darstellung des Nullvektors w¨are, dann 31
\
9) !
!
;
w¨urden wir einen Koeffizienten mit maximalem Wir k¨onnten also diese Darstellung in der Form
\
finden.
schreiben. Die linke Seite repr¨asentiert einen Vektor aus , die rechte 9 \ Seite ist ein Vektor aus der linken Seite eine ( \ . Da die Vektoren Basis von repr¨asentieren, m¨ussen ihre Koeffizienten alle verschwinden. Widerspruch!
7 & & & 7 9
linear unabh¨angig und bilden 7 7 von verschie4. folgt, da f¨ur die Unterr¨aume und denen Basisvektoren aufgespannt werden. Da die auf die Unterr¨aume restringierte Abbildung in der geord neten Basis 9 97 9 97 7 . 97 &&& 3. Nach 2. sind die Vektoren . daher eine Basis von
\
\
\
die Matrixdarstellung besitzt, haben wir nebenbei gezeigt, dass tenten Jordannormalform
zur nilpo-
%
konjugiert ist.
der Polynome betrachten wir den Ope ! B 7 /
5.16 Beispiel Auf dem Vektorraum rator .
2
5
wobei die . –te des Polynoms bezeichnet. Ist eine L¨osung Ableitung ; der Gleichung gesucht (wobei kein Polynom mehr sein muss), dann spricht man von einer linearen Differentialgleichung. Lineare Differentialgleichungen, allerdings mit konstanten Koeffizienten, werden uns noch in dieser Vor lesung begegnen. selbst ist nicht nilpotent, aber da
) !
"!
32
B von auf 8 von ergibt sich ; 7 ! 7 97 7 7 7 B 7 B $ & B ( )97 B
Daher repr¨asentiert eine Basis von B , eine Basis von ( ! 7 w¨ahlen also als primitive Vektoren B und eine Basis von B . Wir ! B , B ! und , , sodass . ) ist. Somit besitzt die Normalform B .
ist, verschwindet schon die dritte Iterierte / $ . Mit den Basisvektoren
Wir k¨onnen durch Umnummerieren der Basisvektoren immer erreichen, dass in der nilpotenten Normalform
%
)
&&& & & &
&&&
gilt. Die Summe dieser Nilpotenzindizes ist gleich der Dimension des Vektorraumes . Eine solche Zerlegung einer nat¨urlichen Zahl - heißt eine Partition von , und ' in absteigend geordnete Summanden bezeichnet die Anzahl voneinander verschiedener Partitionen von .
! . Da , ist ) . Da D , ist D'! D . Da D , ist
5.17 Beispiel
!
.
¨ 5.18 Satz Auf einem –dimensionalen Vektorraum ist die Zahl der Aquiva ' , und diese belenzklassen konjugierter nilpotenter Endomorphismen gleich sitzen die Normalformen
mit
&&&
& & & und
%
Bew.:
.
-
Dass jeder nilpotente Endomorphismus formen konjugiert ist, haben wir schon gezeigt.
33
(10)
zu einer dieser Normal-
#
Es ist also nur noch zu zeigen, dass zwei verschiedene solche Normalformen (10) nicht konjugiert sind. Nun l¨aßt sich aber die Zahl der Jordanbl¨ocke
% nach (8) und (9) aus den Dimensionen der Kerne von mit " berechnen. Umgekehrt ist (10)
%
%
%
%
und
#
7
#
#
wir k¨onnen die Defekte also aus den Multiplizit¨aten der Jordanbl¨ocke % der Gr¨oße berechnen. Unter Konjugation bleiben die , also auch die
invariant. Die absteigende Anordnung der Blockgr¨oßen impliziert daher die Eindeutigkeit.
5.3 Verallgemeinerte Eigenr¨aume
Bis jetzt haben wir das Normalformproblem f¨ur zwei Klassen von Endomorphis - men eines –dimensionalen –Vektorraumes gel¨ost:
f¨ur diagonalisierbare ,
f¨ur nilpotente .
Nun wollen wir diese Informationen nutzen, um einen beliebigen Endomorphis mus (eindeutig) als Summe
(11)
eines diagonalisierbaren und eines nilpotenten Endomorphismus darzustellen, die 1 + ). miteinander kommutieren ( - Da nilpotente die Normalform (7) besitzen, ist ihr charakteristisches Polynom gleich
- ) 8
Dagegen besitzen diagonalisierbare
&
das charakteristische Polynom
) ! 7 die Multiplizit¨at des Eigenwertes ist, d.h.
(12)
! $
. wobei Wir benutzen daher das charakteristische Polynom dazu, die Zerlegung (11) zu finden.
34
-
und - ; Dann $ verallgemeinerter Eigenvektor von zum Eigenwert , wennheißtein - existiert sodass ! $ +; & ! $ heißt verallgemeinerter Eigenraum von zum Eigenwert .
#! mit F¨ur diagonalisierbare stimmen die Eigenr¨ aume den verallgemeinerten Eigenr¨aumen u¨ berein, f¨ur nilpotente dagegen ist 5.19 Definition Es sei Eigenwert von .
Endomorphismus des
–Vektorraumes
ganz
;
verallgemeinerter Eigenraum (zum Eigenwert ).
- . Dann heißt .
5.20 Definition Es sei
ein Unterraum
5.21 Satz Es sei
und falls
-
)
!
,
–invariant, wenn alle Unterr¨aume
. Gilt f¨ur ein
), dann gilt f¨ur alle
–invariant, wenn
eine direkte Zerlegung
–invariant sind.
(mit
-
(13)
97
(14)
S
S
&
Diese Zerlegung ist dann –invariant. Bew.:
Wir zeigen, dass aus (14) auch
! !
folgt. Ist also
S
S
!
, dann ist S
! ;
)
. 35
S
! , S
Es sei f¨ur
;
$
\
. Dann ist . Damit ist
! ;
, und $
, also
.
Da die Summe von Kern und Bild also direkt ist, gilt nach dem Dimensionssatz
F¨ur beliebige - gilt
! ; $
7
sodass die direkte Summe schon gleich dem gesamten Vektorraum
und
\
)
- \ ! +;
\
!
!
ist.
$
&
5.22 Bemerkungen
1. Ist , dann kann - ein .echter Unterraum / von sein. Z.B. ist dies f¨ur und ,
;
der Fall, denn ist injektiv, also ist (13) f¨ur und damit auch f¨ur erf¨ullt, aber ist ein echter Unterraum von , da er die Monome vom ; Grad nicht enth¨alt.
-
(soweit vorhanden), f¨ur den (13) erf¨ullt ist, 2. Den kleinsten Index nennt man den Fittingindex von . , dann ist der Fittingindex
&&& .
5.23 Korollar Ist Bew.:
;
.
Wir wollen nun zun¨achst zeigen, dass (in Verallgemeinerung von (6)) endlich dimensionale Vektorr¨aume sich als direkte Summe
36
der verallgemeinerten Eigenr¨aume zerlegen lassen. Dies ist nur m¨oglich, wenn das charakteristische Polynom in Linearfaktoren zerf¨allt, also die Form (12) besitzt. Wir wissen schon, dass dies immer der Fall
ist, wenn der K¨orper algebraisch abgeschlossen ist, also z.B. f¨ur .
-
5.24 Satz Wenn das charakteristische Polynom des Endomorphismus - auf dem endlich-dimensionalen –Vektorraum in Linearfaktoren zerf¨allt, dann ist 7
(15)
und die Zerlegung (15) ist -invariant (es gilt also
Bew.:
F¨ur
! .
also 7 -
F¨ur
und
).
) ;<! ;7
!
;
der restringierte Endomorphismus ;
$.
+ ;
mit , denn $ !
weiteren Eigenwert ; ! ! keinen $ w¨urde
- Andererseits besitzt ; f¨ur
!
! ; $ & ist, wie wir gerade gesehen haben, inva-
&&&
gilt
!
gilt
- Nun besitzt f¨ur
den Eigenwert , denn
!
mit
Denn der Unterraum
riant unter .
-
.
folgen.
\
!
- Aus Symmetriegr¨unden m¨usste aber auch der einzige Eigenwert von ; sein, was die Annahme
widerlegt.
7
7
-
&&& Es seien nun voneinander verschiedene Eigenwerte. Wir wollen zeigen, dass die Summe
&&&
der verallgemeinerten Eigenr¨aume direkt ist, d.h. aus - ; folgt, dass . Dies wurde gerade f¨ur
"
"
37
# %
&&&
' ;
bewiesen.
f¨ur
Der Induktionsschluss von
also auch
#!
geht wie folgt: Es ist
;A7
'
; & (16) " ! . Damit m¨ussen f¨ur
!
!
\
#
auf
. Wegen ist auch
'7 7 ! & & & diese Vektoren in (16) die Nullvektoren sein, denn die Summe \
#
ist nach Induktionsvoraussetzung direkt. Es ist also - ) ; ( '7 7 # ! $ &&& "
&&&
und damit auch
!
&&&
) +;
\
.
Wir m¨ussen noch zeigen, dass die direkte Summe
gleich ist. Dies ist f¨ur Dimension der Fall und sei allgemein f¨ur Dimen ! sionen gezeigt. 0- Nach Satz 5.21 ist f¨ur die Zerlegung
$
!
in verallgemeinerte Eigenr¨aume
von . !
Es ist nach dem folgenden Lemma Daraus folgt aber
–invariant. Daher k¨onnen wir (falls nicht schon ! gilt)
dem Bildraum betrachten. Da nach Induktionsvoraussetzung eine –invariante Zerlegung
(17)
auf , besitzt
(18)
$.
- 97 denn wegen der –Invarianz von ist ; ! $ ) ! $ $ &
38
(19)
Insgesamt folgt aus (17), (18) und (19)
!
&
-
5.25 Lemma Es sei , und
Unterraum. Dann ist f¨ur das charakteristische Polynom Zerf¨allt also , dann auch .
97
7
ein –invarianter
ein Teiler von . 97 7 7 7 &&& &&& eine Basis
& & & eine Basis von und Bew.: Ist von , dann ist die darstellende Matrix von von der Blockform
%,% % ) +; 4 !
mit %
- 4 # 7 und , - 4 ! # 7 ! . $ ¨ Die gleiche Blockstruktur besitzt f¨ur . Daher gilt (Ubungsaufgabe) )
$ - &
Wegen und folgt daraus die Behauptung.
%,%
%,%
5.4 Jordanzerlegung und Jordansche Normalform
-
Satz 5.24 erm¨oglicht es uns, in der Form (11) als Summe eines diagonalisierbaren und eines nilpotenten Endomorphismus zu schreiben. ! und Es sei dazu der Fittingindex von
Setzen wir
-
das Polynom
!
in diese Polynome ein, dann ist
97 !
&
(20)
. ;
$. denn besitzt die –invariante Zerlegung (18), und Andererseits sind die Polynome ; teilerfremd, d.h. es existiert kein Polynom vom Grad , das alle ohne Rest teilt.
39
¨ Mithilfe des Euklidischen Algorithmus beweist man (Ubungsaufgabe) die Exi stenz von Polynomen mit
$ &
(21)
5.26 Satz (Jordanzerlegung) Das charakteristische Polynom von falle in Linearfaktoren. Dann bilden die Endomorphismen
-
zer-
$ A (mit den Polynomen aus (20) und aus (21)) eine Familie von Projektoren auf die verallgemeinerten Eigenr¨aume mit und & (22)
Weiter gilt: 1. Der Endomorphismus
ist diagonalisierbar, und seine Eigenr¨aume zu den Eigenwerten stimmen mit den verallgemeinerten Eigenr¨aumen von zu den gleichen Eigenwerten u¨ berein.
!
2. Der Endomorphismus verallgemeinerten Eigenr¨aume tenzindex .
3. Es gilt 4.
Bew.:
1
8
, d.h.
l¨asst die Zerlegung (15) von in die invariant, und besitzt Nilpound
kommutieren.
ist die einzige Zerlegung von in einen diagonalisierbaren und einen nilpotenten Endomorphismus, die miteinander kommutieren.
Die zweite Identit¨at aus (22) folgt aus (21).
Dass ist, folgt wegen der verallgemeinerten Eigenr¨aume. Da andererseits
40
und der –Invarianz
ist, ist nur Wegen
mit der direkten Zerlegung (15) vertr¨aglich. ist 7 ! ) ; 7
)
Daher ist aus (22) bewiesen ist.
1. Wegen
$
)
&
, sodass auch die erste Identit¨at
und
7
nach Satz (4.4) ist Eigenraum von zum Eigenwert Eins. Also ist Eigenraum von zum Eigenwert .
2.
l¨asst die Zerlegung (19) invariant, weil dies auch
!
3. folgt, da 4. Sei
Polynom
und
tun. Wegen
; , und der Fittingindex ist die kleinste solche Potenz.
ist
Auch
und
und
Polynome in
sind.
.7 -
mit diagonalisierbar, bzw. nilpotent und . Dann kommutiert auch mit , also auch mit dem von .
kommutieren, denn
!1! !1
! !) ! ! ! !
! !
!
&
Nach dem folgenden Satz ist
!
!
damit diagonalisierbar und nilpotent, und damit die Nullabbildung.
5.27 Satz F¨ur endlich viele Endomorphismen eines endlich-dimensionalen Vektorraumes gilt: 41
1. Die Summe kommutierender nilpotenter Endomorphismen ist nilpotent. 2. Kommutierende diagonalisierbare Endomorphismen besitzen eine gemeinsame Basis aus Eigenvektoren. Bew.:
78 -
1. Es seien , dann ist
nilpotent und
#
5
2
2
2]\
;
2
5
#
2 ;
2]\ +
;A7
. Gilt außerdem
;
denn falls , dann ist , andernfalls . Iteration dieses Arguments zeigt die Aussage f¨ur endlich viele kommutierende nilpotente Endomorphismen.
7
2. Es seien Projektoren
- bzw.
diagonalisierbar, dann k¨onnen wir sie mithilfe der auf die Eigenr¨aume von bzw. in der Form
7
,
;
(23)
schreiben. Ist außerdem ist, da die Projektoren , dann nach Satz 4.6 Funktionen von bzw. sind, auch
< 7
;
0-
7
Daher erf¨ullen die Operatoren
nicht nur die Relation
sondern sind ebenfalls Projektoren mit
Setzen wir
7 !
7 7 )
7 7
7
-
42
7
7 &
bzw.
&
, dann wegen (24) und (25)
7 7
(24)
(25)
und wegen (23) sind die Restriktionen von bzw. 7 das -fache bzw. -fache der Identit¨at.
auf den Unterraum
Iteration dieses Arguments zeigt die Aussage f¨ur endlich viele kommutierende diagonalisierbare Endomorphismen. Wir benutzen jetzt die Abk¨urzung
Beispielsweise ist
)
.
4 7
-
(mit und Jordanbl¨ocke der Matrix.
&
, und der nilpotente Anteil
kommutiert mit dem Diagonalanteil
5.28 Definition Eine Matrix aus normalform), wenn sie die Gestalt
"
;'3
von
.
heißt Jordanmatrix (oder ist in Jordan-
) besitzt. Die Matrizen
"
heissen dann die
-
5.29 Satz Das charakteristische Polynom von zerfalle in Linearfakto ren. Dann existiert eine Basis von (genannt Jordanbasis), sodass die dar4 stellende Matrix eine Jordanmatrix ist.
Bew.: Wir gehen von der -invarianten Zerlegung (15) von in die verallgemei nerten Eigenr¨aume aus, und betrachten die nilpotenten Endomorphismen
!
$
-
dieser Unterr¨aume. Diese besitzen nach Theorem 5.15 Jordanbasen ben wir diese hintereinander, erhalten wir eine Jordanbasis von .
. schrei-
5.30 Bemerkung Im allgemeinen gibt es keine kanonische
/ Wahl der Anordnung der Jordanbasen (eine Ausnahme ist der , wo wir die Eigenwer Fall - te und entsprechend die nach aufsteigender Gr¨oße anordnen k¨onnen). Wir sprechen daher von einer, nicht der Jordannormalform von .
43
5.5 Ein Beispiel
\ B \ B B B B B \ \
Wir wollen eine Jordan-Normalform der reellen Matrix
.
B
\ \ \
/
bzw. des durch gegebenen Endomorphismus von men. Als ersten Schritt berechnen wir das charakteristische Polynom
;
) !
!
;
B
bestim-
&
!
Dieses besitzt die Nullstelle , was man daraus ablesen kann, dass die vierte Spalte außer der an der Diagonalstelle nur aus Nullen besteht. Fortgesetzte von ! Division durch zeigt, dass diese Nullstelle die Ordnung vier besitzt, und dass
) ! ! ist. Als n¨achstes bestimmen wir die verallgemeinerten Eigenr¨aume
!
Nullstellen. Der vierdimensionale Kern von
enth¨alt den Vektor
!
$ B
B
dieser
B mit darstellender Matrix \ \ ! \ B B \\ B \ \ \ B \
(wobei in der Notation
$
!
der obere Index
den Eigenwert bezeichnet, und primitiver Vektor von ist, vergleiche Kapitel 5.2). Der verallgemeinerte Eigenraum wird daher von den Vektoren
B
B
,
!
!
$
44
B 0
B
B 7
und dem zweiten Eigenvektor
\
von
zum Eigenwert
aufgespannt. behandeln wir den zweidimensionalen verallgemeinerten Eigenraum Analog ! . Der Kern von mit darstellender Matrix
enth¨alt den Vektor
$ $
!
\
, und
Schreiben wir diese sechs Vektoren die Matrix
mit Inverser
\
\ \
97 & & & 7
!
\\ B \ B \\ \ \ B
\ ! \ \ \
0
\
.
nebeneinander, so erhalten wir
B \ \ \ B \ \ \ \ B \ \ \ B
7
sodass die Jordansche Normalform
\
( ((( (( "
((
B
ist.
6 Reellifizierung und Komplexifizierung 6.1 Skalarwechsel bei Vektorr¨aumen Bisher haben wir nur Vektorr¨aume u¨ ber dem gleichen Skalark¨orper zueinander in Beziehung gesetzt. Nun ist aber Voraussetzung f¨ur die Bildung der Jordanschen 45
Normalform eines Endomorphismus das Zerfallen seines charakteristischen Polynoms in Linearfaktoren. Dies k¨onnen wir allgemein nur erwarten, wenn der K¨orper algebraisch abgeschlossen ist. Andererseits besitzt jeder K¨orper eine al/ gebraisch abgeschlossene K¨orpererweiterung, zum Beispiel im Fall von . Wir werden daher jetzt die Beziehungen von Vektorr¨aumen u¨ ber einem K¨orper und denen u¨ ber einem Unterk¨orper untersuchen. Wir werden uns / haupts¨achlich das f¨ur die Anwendungen wichtigste Beispiel anschauen. Zun¨achst k¨onnen wir einen –Vektorraum in einen –Vektorraum umwandeln, indem wir nur noch mit Elementen des Unterk¨orpers multiplizieren, d.h. die Skalarmultiplikation auf restringieren, aber weder den Vektorraum als Menge noch die Addition von Vektoren ver¨andern.
6.1 Definition Ist ein Reellifizierung von .
/
7 &&& 2
97
eine -Basis von
/
–Vektorraum
die
endliche Dimension, dann gilt
)
eine -Basis von
&
, dann ist
7 7 9 7 7 2 &&& 2 &&&
97
2 2
. Denn
–Vektorraum, dann heißt der
6.2 Satz Hat der –Vektorraum
Bew.: Ist
7
-
-0/
) 7
m¨ussen. w¨ ahlen 7 - / , dann gilt dies auch f¨ur 2
f¨ur . Da eine -Basis von ist, muss & & & 2 ; sein, ; f¨ur alle # . also auch 6.3 Satz Ist eine –lineare Abbildung der –Vektorr¨aume und , dann ist eine / –lineare Abbildung.
da wir nur
; 2 Ist
mit
46
!
#
# 7
#
Bew.: Dies folgt, da f¨ur alle . ! 6. gilt:
- / . /
!
7! -
,
(Gleichheit als Menge!)
Lassen wir nur noch Elemente von als Skalare zu, dann bleibt die bisher auf / definierte Multiplikation mit nicht reellen Zahlen auf immerhin noch ein –linearer Endomorphismus. Speziell gilt: 6.4 Satz 1. Ist bildung
ein Element von
die Reellifizierung des –Vektorraumes
/
und
!
%# $ !
,
.
-
, dann ist die Ab-
2. Ist ein –Vektorraum, und ist eine komplexe Struktur,
! d.h. gilt mit gleicher Vektoraddition, aber neuer , dann ist Skalarmultiplikation
,
# $ ! # $ !
ein –Vektorraum. Bew.:
# ! !
! ! . ! 7 -
1. Es gilt gilt 2. F¨ur
#
# $ $ ! und
!
#
gilt
# 7 /
und
7! -
Die anderen –Vektorraumaxiome u¨ berpr¨uft man analog.
. Außerdem
#$ 6 ! # ! # < 6"! # 6 ! # 6 # < 6 ! < #%$ 6 ! # $ 6 ! ! %# $ 6 !
f¨ur
6.5 Beispiel Im einfachsten Fall ist ( eine Drehung um : A)
, also
\ $ &
/
, und
&
ist
Wir benutzen den zweiten Teil des Satzes 6.4, um aus reellen Vektorr¨aumen komplexe zu konstruieren: 47
6.6 Definition Ist
/
ein –Vektorraum, dann heißt der –Vektorraum
mit der komplexen Struktur
97 ! 7
die Komplexifizierung von
.
7 -
97 -
<
Wir schreiben kurz f¨ur den , und nennen Realteil, 97 arteil7 2 von . / den Imagin¨ / Da wir aus einer –Basis eines endlich-dimensionalen –Vektor& & & 97 ;<97 7 2 7 ;< raums die –Basis von konstruieren k¨onnen, gilt &&&
!
&
(26)
6.7 Bemerkungen 1. Offensichtlich verallgemeinert 7 von die7 Einf¨ uhrung / / die Komplexifizierung
der komplexen Zahlen mit Addition 97 und Multiplikation
!
!
! !
# #
#
7
#
97 !
7#
#
&
2. Die Reellifizierung ist nicht die Umkehrung der Komplexifizierung. Insbe 3
sondere gilt nach Satz 6.2 und (26): und .
3. Ist ein –Vektorraum und orper, dann k¨onnen ein Erweiterungsk¨ wir analog die Skalarerweiterung von einf¨uhren, indem wir zun¨achst den K¨orper als –Vektorraum auffassen, in diesem eine Basis von w¨ahlen, und
$
/ setzen. Die Skalarmultiplikation erkl¨art man dann analog zum Fall
und , also . $ $ < < < ' < ! ' ist ein Die Komplexkonjugation
K¨orperautomorphismus von . Diese Abbildung verallgemeinert sich folgendermaßen: 48
!
/
6.8 Definition Ist die Komplexifizierung des –Vektorraumes 7 ! ! - 7 " der zu konjugierte Vektor und die Abbildung Konjugation.
, dann heißt
komplex Die Rechenregeln der Konjugation auf u¨ bertragen sich auf :
! ! # # 7 ! - 7 #- 3 & , , Die reellen Zahlen zeichnen sich gegen¨uber den anderen komplexen Zahlen dadurch aus, dass sie sich bei der Konjugation nicht a¨ ndern. Es liegt daher nahe, den reellen Vektorraum analog in einzubetten, indem man
) -
setzt. Es gilt dann . Auf eine - Teilmenge $ setzen.
6.9 Lemma
$
7 ;<!
. Wir schreiben daher einfach
/
1. Ist
ein Unterraum des –Vektorraumes ein komplexer Unterraum von mit
statt
, dann ist
&
ein komplexer Unterraum von mit
7
dann existiert ein eindeutiger reeller Unterraum von
Bew.:
wenden wir die Konjugation an, indem wir
2. Ist
,
, und zwar
mit
&
7 - %$ ! 7 - %$ . Ebenso ist abgeschlossen bez¨uglich der Multiplikation mit komplexen Zahlen. ist
ein / –Unterraum 2. F¨ur beliebige –Unterr¨aume
von , aber wegen Teil 1. des Lemmas kann h¨ o chstens dann
. gelten, wenn 1.
'
49
! - auch Realteil ' !
, dann sind f¨ u r jeden Vektor ! ! ! ! ! ! ! und sein Imagin¨arteil Elemente von . ! - reell Andererseits < ! ! sind
(wenn man von den Trivialf¨allen absieht). 7 - / 6.10 Beispiel , also ! . Der Unterraum $
7 ? von hat die Dimension , denn . ; Andererseits ist $ , also ist nicht Komplexifizierung eines Unterraumes von . Die Komplexifizierung eines reellen Vektorraumes ist n¨utzlich, weil der alge aber Ist
/
braische Abschluss des K¨orpers der reellen Zahlen ist, also insbesondere jedes komplexe Polynom in Linearfaktoren zerf¨allt. Wir wenden dies auf das charakteristische Polynom eines reellen Endomorphismus an, um dessen Jordansche Normalform zu verstehen.
6.2 Die reelle Jordansche Normalform Etwas allgemeiner definieren wir
/
6.11 Definition Die Komplexifizierung einer –linearen Abbildung ist die –lineare Abbildung
,
In unserer Schreibweise
7 . 7.
f¨ur
97
97 -
&
ist gerade durch
?
definiert, also durch die Eigenschaft, dass die imagin¨are Einheit (und damit eine beliebige komplexe Zahl) nach Belieben vor oder nach Ausf¨uhrung der Abbildung heranmultipliziert werden kann. 50
4
- 4 5
7/
Ist daher darstellende Matrix der reell– linea ren Abbildung , dann ist dieselbe Matrix auch darstellende Matrix von , 4 65 7 3 4 65 7 / nur dass sie diesmal als Element von aufgefasst wird. Um nun die Jordansche Normalform eines reellen Endomorphismus zu finden, verallgemeinern wir das Beispiel 5.5.3. \ * - - 4 7 / Dort war die Matrix (die f¨ur zu kei4 7 ) ner reellen Diagonalmatrix konjugiert ist) als Element von aufgefasst worden, und es galt * \
\ - 7 7
mit und
(27) * war also komplex diagonalisierbar.
/
–Vektorr¨aume und 6.12 Definition Sind und notwendig lineare) Abbildung, dann heißt
die zu
F¨ur beliebige Abbildungen
7 7
w¨ahrend f¨ur
#
!
#
und ,
eine (nicht
. . A
,
konjugiert komplexe Abbildung.
und
# #
7
#
- 3
!
gilt
&
wieder eine lineare Abbil.–lineare Abbildungen 3 . A die . Konjugation dung liefert: . - 7
!
Auch die durch definierten Unterr¨aume Kern und Bild verhalten sich vern¨unftig unter Konjugation:
,
)
(
&
All diese Identit¨aten ergeben sich unmittelbar aus der Definition der Konjugation.
- 7
ist genau 6.13 Lemma dann gleich der Komplexifizierung einer reellen linearen Abbildung, wenn gilt. In diesem Fall ist f¨ur . Bew.: 51
Ist
mit
)
- 7
! ."!
7 - )
, dann ist f¨ur
"!
! .
- , also , ! . A! .! 97 - 7 sodass f¨ur gilt. 5 / Es sei nun ein –Vektorraum der Dimension . Dann ist das charakte - 5 Ist
- 7
, dann ist f¨ur
ristische Polynom von
#
ein normiertes reelles Polynom –ten Grades.
- /
#
6.14 Satz Ist 7 - mit , sodass
&
ein von Null verschiedenes Polynom, dann existieren 97 7 7 7 7 7 7 7 7 % - / &&& &&& und & & & mit
$ & Bew.: Aufgefasst als komplexes von Linear 3 % $ 2 ! Polynom, - zerf¨allt in ein Produkt % faktoren: mit . Wegen ist reell und mit auch Nullstelle. bezeichnen wir mit . Die reellen
! < und , sodass Nullstellen ; Ist , dann setzen wir ! ! 3 gilt. Das charakteristische Polynom von ist gleich dem von , denn eine Basis 3 %
!
von ist gleichzeitig eine Basis von , und die darstellenden Matrizen stimmen u¨ berein:
4
) 4
-
Wir benutzen nun eine komplexe Jordanbasis von ,/ um m¨oglichst viel - u¨ ber den Endomorphismus eines –dimensionalen –Vektorraums zu erfahren. - Wir unterscheiden zwischen reellen und nicht reellen Eigenwerten .
Ist 0 -0 / , dann ist der verallgemeinerte Eigenraum ! ! ! ! invariant unter Komplex-Konjugation, . denn
Nach Lemma 6.9 ist daher Komplexifizierung des reellen Unter raums
von , und auf diesem Unterraum finden wir eine reelle
Jordanbasis f¨ur die Einschr¨ankung von . 52
- /
0-
Ist dagegen und auch Jor . In einer , dann ist dannormalform von gibt es genauso viele Jordanbl¨ocke wie , " " denn wegen deren Eindeutigkeit bis auf Permutation der Bl¨ocke und der aus Lemma 6.13 folgenden Invarianz unter Komplexkonjugation treten diese paarweise auf.
; 7 97 7 7 7 7 < , & &&& mit Die Jordan-Beziehung ! ) 7 7 # , &&&
Besitzt nun (z.B. f¨ur ) ein Jordanblock in 7 7 97 die7 Jordanbasis & & & , dann benutzen wir die konjugierte Jordanbasis & & & f¨ur den ! Jordanblock in . / Von diesen ( –linear unabh¨angigen!) Basen ausgehend, konstruieren wir die –Basis
(28)
\
, . ! < ) 7 & & & 7 # und . ! ! < , . ! ! < 7 & & & 7 # & # ist die darstellende Im einfachsten Fall Matrix der Restriktion von , den wir von den Drehungen im bez¨uglich der Basis (28) gleich / kennen (dort ist ). # ist die darstellende Matrix . F¨ur
u¨ bersetzt sich dabei in
. )
\
\
\
\
\
7 Lineare Differentialgleichungen Differentialgleichungen (DGLn) modellieren Naturvorg¨ange. Ein Standardbeispiel ist die Newtonsche Kraftgleichung
-/
7 ! 7
-/
(29)
wobei die Kraft von Ort = und Geschwindigkeit = abh¨angt, und ; gleich Masse mal Beschleunigung ist. Gesucht sind L¨osungen, d.h. im / / idealen Fall glatte Funktionen = , die diese Gleichung erf¨ullen.
53
7
- /
;
- /
&
&
7.1 Beispiel ; =, = beliebig. erf¨ullt die Newtonsche Bewegung mit Startpunkt Kraftgleichung ; & +(freie Geschwindigkeit zum Zeitpunkt ).
und
In der Linearen Algebra interessieren wir uns f¨ur lineare (homogene, zeitunabh¨angige) Differentialgleichungen, die in der Form
+*
* - 4 57 /
mit
geschrieben -0/ werden k¨onnen. Gesucht ist die Lo¨ sung des Anfangswertproblemes f¨ur = , d.h. eine differenzierbare Funktion
/
/ 2
mit
% ( & 8*,( & '% &
& -0/
und
(6;<!
&
Die Ordnung einer DGL ist die h¨ochste vorkommende Ableitungsstufe. W¨ahrend die Newtonsche DGL (29) von 2. Ordnung ist, betrachten wir also hier DGLn 1. Ordnung.
5
%
7.2 und schreiben Beispiel 7 Im * ! - / Fall der freien Bewegung setzen wir mit = (Ort bzw. Geschwindigkeit). Dann gilt f¨ur
4 57 /
* 7
und die (eindeutige) L¨osung des Anfangswertproblems mit
( & )
S
>
&.-0/
-
ist
&
7.1 Berechnung der L¨osung Im Gegensatz zu allgemeinen Differentialgleichungen k¨onnen wir die linearen DGLn mit algebraischen Mitteln l¨osen. dazu die Anwendung der Exponentialfunktion auf eine Matrix * - Wir 57 ) 4 definieren durch
6*
also durch die Einsetzung von
*
*
7
in die Potenzreihe der Exponentialfunktion.
54
/ 2
Dabei ist der Limes-Begriff zu kl¨aren. Wir benutzen auf dem die Euklidi 2 4 65(7 ) sche Norm und auf die Operatornorm &&&
*
*
*
6* - 4 573
&
*
ist also der maximale Streckungsfaktor der linearen Abbildung
Es gilt nun (ohne Beweis): 7.3 Satz
1. Die Reihe
ist f¨ur alle
;
*
und
* -04 657 *
.3
aus
$
gleichm¨aßig konvergent, und es gilt
9 & * A9 & * ) 9 & & :*
& 7 & -0/
&
( & 9 6* & : die eindeutige L¨osung des Anfangswertproble +* 7( ;<) ist mes . A* & ) > # Wir k¨onnen insbesondere die Reihe gliedweise differenzieren und erhalten % 9* & ) *@A* & & -0/ %<& & 2.
&
7.4 Beispiel
*+
1.
96* & )
2.
* 2 z.B. f¨ur
3 *"
Da f¨ur
5
%
7 & & & 7 2 , also
( & )
...
%
%
&
96* & 2 > # , also > & > >
(nilpotente Blockmatrix). Dann ist
9 & )
,+
.- .
7 & & & 7 2 . Dann ist * > 7 & & & 7 > und
55
>
'&
ist, und die Sph¨are !#"%$
)( kompakt ist, wird das Supremum angenommen. Eine analoge Aussage gilt f¨ur
> >
3.
* +*% *
. Dann ist
* 8* * 6* & ) 896*% & * & , also .
Diese Beispiele erm¨oglichen zusammengenommen die Exponentialfunktion einer Jordanmatrix zu bilden, denn
3
%
'
- 4 73
, also
& & & $ 9 & )
9 &
&&&
$
9 & >
*
&
- 4 65(7 /
Die Exponentialfunktion einer beliebigen reellen Matrix bilden - 657 wir, indem wir sie mittels zu einer komplexen Jordanmatrix
konjugieren. Dann ist
A* & )
*
\
\
& )
denn bei der Bildung der Potenzen
fallen die inneren Paare
\
\
2
\
9 &
$&&&$
\
\
7
heraus.
7.2 Ein Beispiel Es soll die lineare Differentialgleichung
!
,
3
,
!
,
"!
gel¨ost werden. Diese beschreibt die Bewegung zweier Massenpunkte auf der Ge raden mit Orten und Geschwindigkeiten , die sich gegenseitig mit einer zu ihrem Abstand proportionalen Kraft anziehen. 97 7 B 7 7 7 7 Schreiben wir , dann entspricht diese DGL 2.
Ordnung mit \
\
56
1
numerik.nb
Wir stellen die Matrix m des Dgl−Systems auf. Die Koordinaten sind die Geschwindigkeiten und Orte (v1 ,v2 ,q1 ,q2 ) der beiden Massenpunkte.
m = 880, 0, -1, 1<, 80, 0, 1, -1<, 81, 0, 0, 0<, 80, 1, 0, 0<<; MatrixForm@mD
0 i j j j j j0 j j j j j1 k0
0 -1 1 y z z 0 1 -1 z z z z z 0 0 0 z z z 1 0 0 {
Wir berechnen die Eigenwerte und Eigenvektoren von m. Die erste Klammer von Eigensystem[m] enthält die Nullstellen des charakteristischen Polynoms von m mit ihren Multiplizitäten. Die zweite Klammer enthält die dazugehörigen Eigenvektoren.
Eigensystem@mD 990, 0, -ä
!!!! !!!! 2 , ä 2 =,
980, 0, 1, 1<, 80, 0, 0, 0<, 9ä
!!!! !!!! !!!! !!!! 2 , -ä 2 , -1, 1=, 9-ä 2 , ä 2 , -1, 1===
Der erste Eigenvektor {0,0,1,1} zum Eigenwert 0 entspricht einer Verschiebung der beiden Orte der Massenpunkte um den gleichen Wert. Da m auf dem verallgemeinerten Eigenraum Ê(0)nicht diagonalisierbar ist, wird kein zweiter Eigenvektor zum Eigenwert 0 gefunden. Daher berechnen wir die (Eigenwerte und) Eigenvektoren von m2 :
[email protected]
88-2, -2, 0, 0<, 880, 0, -1, 1<, 8-1, 1, 0, 0<, 80, 0, 1, 1<, 81, 1, 0, 0<<<
Dabei ändert sich die Reihenfolge der (quadrierten) Eigenwerte. Der zweite Eigenvektor {1,1,0,0} zum Eigenwert 0 entspricht einer Bewegung beider Massen mit gleicher Anfangsgeschwindigkeit vom Nullpunkt weg. Die Linearkombination {0,0,−1,1}+{−1,1,0,0}={−1,1,−1,1}der beiden gefundenen Eigenvektoren zum Eigenwert −2 entspricht Anfangsbedingungen, bei denen sich die beiden Massenpunkte von ihrem Schwerpunkt bei 0 entfernen, während sie sich bei der Linearkombination {0,0,−1,1}−{−1,1,0,0}={1,−1,−1,1} diesem annähern. Wir wenden die Exponentialfunktion auf die Matrix m t an: em = FullSimplify@MatrixExp@m tDD; MatrixForm@emD 2 t i CosA j !!!! E j 2 j j j j j 2 j t j j SinA !!!! E j j 2 j j j j j !!!! !!!! 1 j j I2 t + 2 SinA 2 tEM j 4 j j j j j !!!! !!!! j 1 j I2 t - 2 SinA 2 tEM k 4
t SinA !!!! E 2
2
t CosA !!!! E 2
2
1 I2 t 4
1 4 I2 t +
!!!! SinA 2 tE
- !!!! 2 !!!! SinA 2 tE
!!!! 2
2 !!!! !!!! t 2 SinA 2 tEM CosA !!!! E 2
2 !!!! !!!! t 2 SinA 2 tEM SinA !!!! E 2
57
SinA 2 tE y !!!! z z 2 z z z z !!!! z SinA 2 tE z z - !!!! z z z 2 z z z z 2 z t z SinA !!!! E z z z 2 z z z 2 z z t z CosA !!!! E 2 { !!!!
1
numerik.nb
Nun wollen wir die allgemeine Lösung des Differentialgleichungssystems bestimmen.Diese hängt von den Konstanten C[1],C[2],C[3] und C[4] ab. FullSimplify@DSolve@8q1 ’’@tD q2@tD - q1@tD, q2 ’’@tD q1@tD - q2@tD<, 8q1@tD, q2@tD<, tDD
1 99q1@tD ® 4 !!!! !!!! !!!! I2 Ht HC@1D + C@2DL + C@3D + C@4DL + 2 HC@3D - C@4DL CosA 2 tE + 2 HC@1D - C@2DL SinA 2 tEM, 1 !!!! q2@tD ® I2 Ht HC@1D + C@2DL + C@3D + C@4DL + 2 H-C@3D + C@4DL CosA 2 tE + 4 !!!! !!!! 2 H-C@1D + C@2DL SinA 2 tEM==
Jetzt geben wir Anfangsorte und Anfangsgeschwindigkeiten an und lassen das Dgl−System lösen: DSolve@8q1 ’’@tD q2@tD - q1@tD, q2 ’’@tD q1@tD - q2@tD, q1@0D 0, q2@0D 1, q1 ’@0D 1 10, q2 ’@0D == 0<, 8q1@tD, q2@tD<, tD
!!!! !!!! !!!! !!!! !!!! 1 !!!! !!!! 99q1@tD ® ã-ä 2 t I-20 + ä 2 + 40 ãä 2 t - 20 ã2 ä 2 t - ä 2 ã2 ä 2 t + 4 ãä 2 t tM, 80 !!!! !!!! !!!! !!!! !!!! 1 !!!! !!!! q2@tD ® ã-ä 2 t I20 - ä 2 + 40 ãä 2 t + 20 ã2 ä 2 t + ä 2 ã2 ä 2 t + 4 ãä 2 t tM== 80
Wir haben vergessen , die Trigonometrischen Additionstheoreme anwenden zu lassen, um die Ausdrücke zu vereinfachen: x = FullSimplify@Evaluate@8q1@tD, q2@tD< . %DD
1 1 !!!! !!!! !!!! !!!! !!!! !!!! 99 I20 + 2 t - 20 CosA 2 tE + 2 SinA 2 tEM, I20 + 2 t + 20 CosA 2 tE - 2 SinA 2 tEM== 40 40
q1 und q2 werden bis zur Zeit tmax gezeichnet.
Plot@Evaluate@xD, 8t, 0, tmax<, PlotPoints ® 300D
7 6 5 4 3 2 1 20
40
60
80
100
Graphics
58
120
1
numerik.nb
Warum bemühen wir eigentlich die Lineare Algebra, statt die Differentialgleichungen gleich numerisch zu lösen? Weil wir dann auf einen Schlag die Lösung für alle Zeiten finden. Numerik aber verschlechtert sich mit der Zeit. Hier explodiert aus mir unbekannten Gründen die numerische Lösung zur Zeit t=109: tmax = 120; NDSolve@8Q1 ’’@tD Q2@tD - Q1@tD, Q2 ’’@tD Q1@tD - Q2@tD, Q1@0D 0, Q2@0D 1, Q1 ’@0D 0.1, Q2 ’@0D == 0<, 8Q1, Q2<, 8t, 0, tmax
88Q1 ® InterpolatingFunction@880., 109.687<<, <>D, Q2 ® InterpolatingFunction@880., 109.687<<, <>D<<
Plot@Evaluate@8Q1@tD, Q2@tD< . %D, 8t, 0, tmax<, PlotPoints ® 300D
InterpolatingFunction::dmval : Input value 8109.754< lies outside the range of data in the interpolating function. Extrapolation will be used. InterpolatingFunction::dmval : Input value 8110.169< lies outside the range of data in the interpolating function. Extrapolation will be used. InterpolatingFunction::dmval : Input value 8109.955< lies outside the range of data in the interpolating function. Extrapolation will be used. General::stop : Further output of InterpolatingFunction::dmval will be suppressed during this calculation.
10 7.5 5 2.5
20
40
60
80
100
120
-2.5
Graphics
8 Euklidische und unit¨are Vektorr¨aume: Fortsetzung
Im Folgenden greifen wir wieder das Thema auf, mit dem der erste Teil der Vor / lesung endete: Skalarprodukte u¨ ber –Vektorr¨aumen mit oder , d.h. reelle bzw. unit¨are Vektorr¨aume. Wir f¨uhren also zus¨atzlich zur Vektorraumstruktur ein zweites Strukturelement ein. Skalarprodukte sind positiv definite Sesquilinearformen, d.h. insbesondere 59
7
- ;
;
f¨ur $ . Wir nutzen also die Ordnung der reellen Zahlen. Die Beschr¨ankung auf reelle oder komplexe Vektorr¨aume er¨offnet uns eine neue Welt, denn sie erm¨oglicht die Verschmelzung von Linearer Algebra und 2 Analysis, d.h. z.B. die Betrachtung konvergenter Reihen 2 von Vektoren 2 - . Die Konkretisierung dieser Perspektive bleibt aber der Funktionalanalysis vorbehalten, also einer weiterf¨uhrenden Vorlesung. Die Cauchy–Schwarz–Ungleichung gilt
7!
!
$ !
!
7
- ;A7 (
-
erm¨oglicht die Definition des Winkels zwischen den von
; aufgespannten eindimensionalen Unterr¨aumen:
3
7! $
!
;
Abbildung 2: Winkel zwischen eindimensionalen Unterr¨aumen
;
Besonders wichtig ist der Fall orthogonaler Vektoren mit
/
.
7 ! !
!
!
!
F¨ur ein Skalarprodukt auf einem -Vektorraum
7
und
"!
!
7 !
!
(
ist
7
!
bzw.
7 ! !
- 7
wir k¨onnen also das Skalarprodukt aus der Norm rekonstruieren. Analoges gilt wegen der Polarisationsidentit¨at
7!
!
!
7
!
!
7
"!
!
!
!
7 !
!
!
!
7%!
!
7
!
-
auf -Vektorr¨aumen . Insbesondere k¨onnen wir die Winkelmessung durch die L¨angenmessung ersetzen. 60
8.1 Orthonormalisierung
Es sei ein larprodukt.
8.1 Definition ; stem, wenn
- Eine nicht 7 leere ! ! Teilmenge ; ! -
.
und
–Vektorraum der Dimension4
heißt Orthogonalsy-
Sie heißt Orthonormalsystem, wenn zus¨atzlich
mit einem Ska-
-
gilt.
Eine Basis von heißt Orthogonalbasis (Orthonormalbasis), wenn sie gleichzeitig ein Orthogonalsystem (Orthonormalsystem) ist.
Insbesondere mit Orthonormalbasen denn es gilt die Basisdarstellung
2
mit
7 &&& 2
97
l¨asst sich einfach rechnen,
7
-
&
Dies l¨asst sich folgendermaßen geometrisch deuten:
7 & & & 2 eine Orthonormalbasis, dann ist ( 7 7 5 - , 7 &&&
8.2 Lemma Ist
97
eine Familie von Projektoren, d.h.
2
und
&
7 7 7 7 7 - . Weiter sind f¨ur # ' 7 & & & 7 5 die Projektoren auf
97 & & & 7 , denn + , und 2 2 # 5 ist damit . F¨ur
.
Bew.:
/ /
/
Ist , dann wird der Basisbegriff oft ver¨andert, und man verlangt nicht mehr, dass jeder Vektor endliche Linearkombination von Basisvektoren sein muss. Siehe z.B. Reed und Simon, Functional Analysis, Kapitel II.3. 4
61
-
8.3 Definition Eine Projektion !
wenn .
heißt Orthogonalprojektion,
Wir wissen schon (Satz 4.4), dass f¨ur eine Projektion - gilt, wir k¨onnen also jeden Vektor eindeutig in mit ! - zerlegen.
und Umgekehrt ist genau dann eine Orthogonalprojektion, wenn gilt:
!
97 ;
-
Weiter ist eine Projektion genau dann Orthogonalprojektion, wenn
7 ! !
denn
7 !
!
97
7
!
!
- 7
!
7 ! 97 7 ! A7 A7
!
!
8.4 Beispiel 1. Die Projektionen Orthogonalprojektionen mit
!
f¨ur und
A
7 ) 9
!
!
, !
&
sind
9 .
( / 2. Die! Projektion auf dem Vektorraum mit Skalarprodukt
7 ! ! ist keine Orthogonalprojektion, denn \ steht nicht senkrecht auf ! .
97 7 2 von eine OrWie k¨onnen wir nun aus einer beliebigen Basis &&&
thonormalbasis (ONB) konstruieren? Dies wird im Beweis des folgenden Satzes vorgef¨uhrt. Das Verfahren heißt Gram-Schmidt-Orthonormalisierung.
7
Bew.:
Wir setzen
&&&
7 )
97
8.5 Satz (E. Schmidt) Ist
97 7 2 ONB von &&&
7 &&& 2
eine Basis von
mit
97 & & & 7
( , sodass .
62
#
'7
, dann existiert eine
&&&
75
&
# 5 schon eine Orthonormalbasis Haben wir f¨ur 97 & & & 7 gefunden, dann ist der Projektor 97 ! 97 ! 7 ! .
nalprojektor auf
. Wir setzen
S
und
7 !
S
S
3
bildet
97
&&&
7
!
!
S S
7
& & & von 7 ! wegen /
Orthogo-
7
orthogonalen Unterraum, und normieren
!
projizieren also S auf den zu auf L¨ange . Wegen
7
7
S
S
;A7
eine ONB von
( '7
S
S
&&&
#
7
.
' %
# ' %
'
Abbildung 3: Gram-Schmidt-Orthonormalisierung
8.2 Die adjungierte Abbildung Es seien
und
euklidische bzw. unit¨are Vektorr¨aume.
8.6 Definition Eine lineare Abbildung adjungiert, wenn
!
7!
!
7. A
- 7 - 7
heißt zu
! -
&
Gibt es eine solche adjungierte Abbildung, dann ist sie eindeutig.
63
- 7
, dann existiert
97 7 2 die Form &&& 2 ! !
. 7 !
8.7 Satz Ist
Bew.: Der Fall ergibt sich
;
!
2
! -
!
& 2
7
7 7
7.
2 ! ! 7. 7 .
! 7 . & 2
ist trivial, und aus der Identit¨at
2
. 9 7 7
und besitzt bez¨uglich einer ONB
Wir erinnern uns an die Diskussion des Dualraumes pitel 3). Dessen Elemente sind die linearen Abbildungen besitzt ein Skalarprodukt, dann ist die Abbildung
7 .
7
eines Vektorraumes (Ka-
. Ist nun ! - und ! - , ! A ! 7 ! + ; ist auch ! ; , denn ! !
ein auf , und f¨ur ! 7 lineares ! ; . Funktional Wir erhalten also eine Injektion & Diese ist konjugiert-linear, es gilt also
! ! ) ! ! , #%$ ! ! #%$ ! &
/ # # aber Damit ist f¨ur die Injektion nicht linear, f¨ur wegen schon.
97 7 2
&&& Ist nun und eine Orthonormalbasis, 97 7 2 7 7 2 dann ist
! & & & . gleich der dualen Basis, also der Basis & & & von mit surjektiv und auch konjugiert–linear. Damit ist
\
64
8.8 Satz Sind und endlich-dimensionale euklidische oder unit¨are Vektorr¨aume, - 7 und ist , dann gilt f¨ur die adjungierte Abbildung
Ist eine ONB von und * 4 * Matrizen und
*
*
>
, d.h.
\
>
eine ONB von
4
&
(30)
, dann gilt f¨ur die darstellende
6* 6*
( '7 7 &&&
'7 7
!
Daher ist f¨ur alle
! ! - und
!
>
Wegen der Invertierbarkeit von Nach Satz 3.10 ist
>
>
!
&
.
7 . 7!
-
!
oder kurz
7
gilt 7! &
Bew.: Nach Definition der transponierten Abbildung
!
> -
&&&
!
&
!
*
impliziert dies Gleichung (30).
>
4
>
) bez¨uglich die darstellende Matrix der transponierten Abbildung der dualen Basen. \ \ )
Da und konjugiert-linear sind und , gilt, ergibt * * sich daraus >.
Die adjungierte Abbildung hat also den gleichen Rang wie . 8.9 Korollar Sind torr¨aume, und ist
und
- und 7
) )
endlich-dimensionale euklidische oder unit¨are Vek , dann gilt
65
&
Bew.: Dies ergibt sich aus dem entsprechenden Satz f¨ur die transponierte Abbil dung, denn f¨ur einen Unterraum
ist der zu in orthogonale Unterraum
- 7 ! +;
gleich dem Bild von
unter der Abbildung Damit ist
-
- 7 ! ;
, und analog f¨ur
genau dann surjektiv, wenn
%$
-
%$
.
injektiv ist, und umgekehrt.
! "
8.10 Beispiel ! Die adjungierte Abbildung zur Projektion . projiziert auf entlang der Richtung .
-
Wir haben gesehen, dass eine Projektion
projektion ist, wenn ist.
im
/
ist
genau dann eine Orthogonal-
8.3 Normale Operatoren Diese so genannte Selbstadjungiertheit eines Operators ist Spezialfall der folgenden Eigenschaft.
8.11 Definition Existiert die adjungierte Abbildung + , dann heißt normal. 8.12 Beispiel
zu
und gilt
. A! " ist nicht normal, denn .! ! ( & -
8.13 Satz F¨ur normale Endomorphismen
)
und
gilt
&
)
Bew.:
-
66
) . , sodass , woraus wegen der
Allgemein gilt f¨ur einen zweiten Endomorphismus !
+ F¨ur ist aber nach Corollar 8.9 . . Analog gilt ! Normalit¨at von die Beziehung
folgt.
Allgemein gilt
, aber f¨ur wegen . Analog folgt sogar und wegen der Normalit¨at von die zweite Beziehung.
-
8.14 Satz Ein Endomorphismus eines endlich-dimensionalen unit¨aren Vektorraums ist genau dann normal, wenn eine ONB aus Eigenvektoren von besitzt. Bew.:
7 7
;
Besitzt eine solche ONB, dann ist von der Form mit der Familie von Projektoren auf die Eigenr¨aume zu den Eigenwerten
. Da diese orthogonal sind, gilt , also
7
;
&
Ist normal, also , dann gilt auch f¨ur den diagonalisierbaren bzw. nilpotenten Anteil von , denn diese sind ; Polynome in . Daraus folgt zun¨achst
.Denn wegen Satz 8.13 gilt . Damit ist , sodass ! ) , also ist.
Gem¨aß Satz 5.26 k¨onnen wir also
+
in der Form
als Polynome von schreiben, wobei die Projektoren
ebenfalls normal sind. Normale Projektoren sind aber Orthogonalprojektoren, denn nach Satz 8.13 projiziert ebenso wie entlang !
)
auf . Da andererseits nach Corollar 8.9 , - und f¨ur $ , stehen je zwei Eigenr¨aume und aufeinander senkrecht.
Insbesondere sind also normale Endomorphismen unit¨arer Vektorr¨aume diagonalisierbar. Auch wenn das charakteristische Polynom eines normalen Endomorphismus eines euklidischen Vektorraumes nicht in Linearfaktoren zerf¨allt, besitzt dieser eine einfache Normalform: 67
-
8.15 Lemma Ist ein euklidischer Vektorraum und normal, dann ist - auch seine Komplexifizierung normal bez¨uglich des komplexifizierten Skalarproduktes
7 !
Bew.:
7!
7 ! 7 !
7 ! 97. ! 97 !
f¨ur alle
!
!
!
97 !
!
!
!
-
!
!
!
!
!
impliziert
7
7 7 37
&
7 . 97. ! 7. 7 97 ! 7 97
also
7!
"!
+;
+;
&
Wir k¨onnen also f¨ur eine reelle Normalform von dadurch be rechnen, dass wir die komplexe Normalform von benutzen, die nach Satz 8.14 bez¨uglich einer ONB eine Diagonalmatrix ist.
-
8.16 Satz Ist ein endlich-dimensionaler euklidischer Vektorraum und normal, dann besitzt bez¨uglich einer geeigneten ONB von die Normalform
%
..
.
' \
%
%
% %
..
. \
&
# 97 7 & & & 7 -0/ sind die reellen Eigenwerte von , 97 & & & 7 - / die nicht reellen Eigenwerte von .
Hierbei ist und
Bew.: Dies folgt aus Satz 8.14 zusammen mit der in Kapitel 6.2 dargestellten reellen Normalform. Denn besitzt ja eine orthonormale Eigenbasis, die mit 68
) dem Eigenvektor zum Eigenwert auch den Eigenvektor zum Eigenwert ! enth¨alt. Da diese normiert sind und aufeinander senkrecht stehen, gilt f¨ur
< !
7 3 7 7 )
und
7
7 3
7 7
7 !
3 +;
!
!
7
7 )
&
Im Folgenden schauen wir uns einige Beispiele normaler Operatoren genauer an.
8.4 Orthogonale und unit¨are Operatoren
- 7
8.17 Definition Sind
7
euklidische (bzw. unit¨are) Vektorr¨aume, dann heißt
.
Isometrie, wenn
!
-
orthogonal (bzw. unit¨ar), wenn zus¨atzlich
! ,
.
Unter Benutzung der Polarisationsidentit¨at folgern wir f¨ur Isometrien die Gleichung
. 97. 3
7
97 -
&
Es bleiben also nicht nur L¨angen, sondern auch Winkel unver¨andert. Sind und endlich-dimensional, dann ist eine Isometrie genau dann orthogonal bzw. )
unit¨ar, wenn . W¨ahrend bijektive lineare Abbildungen die Vektorraumstrukturen ineinander u¨ berf¨uhren, werden durch orthogonale bzw. unit¨are Transformationen auch die Skalarprodukte ineinander u¨ bergef¨uhrt. 7 Dies ist f¨ur –Vektorr¨aume immer m¨oglich, wenn und die gleiche 5 7 7 2 &&& endliche Dimension besitzen, denn dann k¨onnen wir ja ONBs von 7 7 2 &&& und von konstruieren und aufeinander abbilden:
( '7
&&&
75
&
Lineare 7 Fortsetzung ergibt eine orthogonale bzw. unit¨are Transformation . 69
-
Wir k¨onnen also, wenn wir diese Abbildungen untersuchen wollen, ohne Ver/ 2 lust an Allgemeinheit orthogonale Endomorphismen des bzw. unit¨are Endo2 morphismen des studieren, wobei wir jeweils das Standard-Skalarprodukt verwenden.
65
C ! / Gruppe des
5
2 65 .
-
C2
.
5
C
.
-
65
$
C
$
heißt die or-
heißt die speziell orthogonale
$ heißt die unit¨are Gruppe des 2 . 3 $ heißt die speziell unit¨are Gruppe des
- 4 65(7)
65 - 4 57 / 2 C
8.18 Definition C / thogonale Gruppe des
5 65(7 / - 4 657 / Tats¨achlich ist C eine Untergruppe von , denn C ist
genau dann orthogonal, wenn C C , was wiederum gleichbedeutend mit
\ 65 - 57 / bez¨ und C abgeC \ C ist.
C ist
also Inversenbildung \ \ u glich schlossen, und wegen C C auch bez¨uglich C C C C C C - 65 Multiplikation. Zudem gilt . C 65 65 Wegen des Determinantenproduktsatzes ist !C ebenfalls eine UnC tergruppe, und analog argumentiert man im unit¨aren Fall. Da das Skalarprodukt unter orthogonalen Abbildungen invariant gelassen wird, 97 7 - 65 &&& sind die Spaltenvektoren von C C , also die Bilder der Standard-ONB / 2 - 5
2 . des euklidischen , eine ONB. Gleiches gilt f¨ur
7 & Nach Satz 8.14 besitzt bez¨uglich einer ONB des die Normalform
wobei die die Eigenwerte 2 von sind, also wegen
gilt. F¨ur 5 .
ist zus¨atzlich ! - 5 C Dagegen m¨ussen die (reellen) Eigenwerte von C gleich oder sein, und es ergibt sich mit Satz 8.16 die Normalform
..
.
\
..
. \
%
%
\
70
%
%
..
.
\
7
2
&&
7 2 ,
+ ; 65
wobei wir Ist C
!C
voraussetzen k¨onnen. , dann muss die Multiplizit¨at des Eigenwertes
!
/
8.19 Beispiel Die orthogonale Gruppe C des . Ist C , dann k¨onnen wir die Matrix f¨ur ein eindeutiges
!C der Form \
C
gerade sein.
- ;7
in
/
schreiben. Denn die erste Spalte ist ein Vektor der L¨ange 1 im , also von der Form , w¨ahrend zweite Spaltenvektor auf dem ersten senkrecht steht, der \ also von der Form ist. Das positive Vorzeichen ergibt sich aus der *
Forderung . Die Matrix C ist also schon in der reellen Normalform. Geometrisch ist die lineare Abbildung C eine Drehung um den Winkel .
Analog k¨onnen wir Form
-
C
C
C
!C
f¨ur ein eindeutiges
\
6* !
- ;A7
in der
schreiben, denn diesmal muss ja gelten. Damit ist aber C genau , ; ! dann in Normalform, wenn ist, denn C besitzt die Eigenwerte 1 und und \ . Geometrisch ist die lineare mit den Eigenvektoren Abbildung C eine Spiegelung an der durch den ersten Eigenvektor aufgespannten Geraden.
C
!C Sowohl die Drehgruppe ! als auch die der Achsen / C 4 7 / Menge spiegelungen sind damit in den Raum eingebettete Kreislinien, parametrisiert durch .
Die Gruppe !C
Dagegen ist C
%
ist abelsch, denn
%
\
%
%
\
\
% S % S
nicht abelsch, denn beispielsweise ist
\ \ ) \ \ 3
6D< /.B 8.20 Beispiel Die orthogonale Gruppe C des . D<
)C Ist C , dann ist die reelle Normalform von C \
\ 7
C
71
% S % S
&
\ \ &
von der Gestalt
6D<
wobei die Transformationsmatrix aus !C daher den Betrag des Drehwinkels aus
!
C
\
C
!
gew¨ahlt werden kann. Wir k¨onnen
ablesen.
Die Drehachse von C ist der Eigenraum zum Eigenwert und damit eindimensional. Die zu diesem eindimensionalen Unterraum orthogonale Ebene bleibt unter C als Menge invariant, die Vektoren dieser Ebene werden aber um den Win kel gedreht.
C
-
C
D<
!C
D'
besitzt die reelle Normalform \
C
\
&
\
Dies entspricht einer Drehung um den Winkel , gefolgt von einer Spiegelung an der Drehebene. Letztere ist f¨ur eindeutig definiert.
Wir k¨onnen folgendermaßen eine stetige Abbildung
D'
!C
- / B
$
/3B
von der Einheitskugel auf die Drehgruppe $ des 6;<
; definieren: , und f¨ur sei die Drehung mit Achse $ / B um den Winkel in positiver Richtung bez¨uglich . Es gilt ! A f¨ur genau, wenn
! -
-0/ B
$ &
!
Denn Drehungen um die gleiche Achse mit Winkel bzw. sind! einander gleich. ist die Oberfl¨ache der Vollkugel , und die Punkte und sind Antipoden auf dieser zweidimensionalen Sph¨are. Die Vollkugel mit identifizierten Antipoden auf ist damit ein topologi6D<
C (siehe auch Kn¨orrer [3], Kapitel 6). sches Modell von !
6D<
Schon !C ist keine abelsche Gruppe mehr, denn Drehungen um verschiede ne Achsen kommutieren nicht. Beispiel: Drehung mit Winkel um –Achse und –Achse
( @ \
\ @ @
@\ \
72
\ @
\
&
2
65
bilden die Gruppe
. Die De eine komplexe Zahl, die wegen \ \ ist vom Betrag ist. Die Isometrien
von beispielsweise bestehen aus der Multiplikation mit der komplexen Zahl - )
$ . Wegen des Determinantenproduktsatzes ist
Die Isometrien des unit¨aren Vektorraumes terminante
einer unit¨aren Matrix
5
\
5
ein Gruppenhomomorphismus, und damit
65 tergruppe von
.
eine normale Un-
8.21 Beispiel Die unit¨are Gruppe
des .
%,% % -
% Ist
, dann muss
; und gelten. Dies ist genau dann erf¨ullt, wenn der erste %,% Spaltenvektor % \ die L¨ange besitzt, und der zweite Spaltenvektor von der % )
- % f¨ur ein
ist. In diesem Fall ist Form %,%
-
Ist also
3
!
7! -
, dann ist \
mit
und
)
&
!
&
-
Der erste Spaltenvektor legt also schon die Matrix fest, und ist ein beliebiger Vektor der L¨ange . )
% S Die Vektoren der L¨ a nge bilden aber % S B B / die Einheitssph¨are
. Die dreidimensionale Einheitssph¨are bildet damit ein topologisches Modell der Gruppe
.
!
!
8.22 Beispiel (Diskrete Fouriertransformation) Es sei
(
$
7
,
(
der unit¨are Vektorraum der komplexen Funktionen auf der abelschen Gruppe . ;A7 7 7 ! &&& z.B. durch repr¨asentiert, und in Diese besitzt - Elemente, ;7 Anwendungen ist oft als Diskretisierung einer Funktion
( 1 ;7 7 ! &&& definiert: . Die diskrete Fouriertrans- formation
ist nun durch
#
\
73
\
#
-
(
definiert, sodass die adjungierte Abbildung gleich
A !
\
ist.5 Damit ist
unit¨ar, denn
\
\
folgt (mit
!
#
(
) A
; +
!
9
(
-
9
!
! (
, w¨ahrend f¨ur
oder
#
9
(
-
( !
folgt aus ( auf
9
;
# #
#
9
Die Identit¨at (31) f¨ur der Bijektion
) aus der Relation
#
#
&
;
# #
(31)
die Anwendung
(
(
( ) ;
ergibt. Da der Faktor ist, verschwindet die Summe. 97 7 &&&
Wir haben mit dem Nachweis der Unitarit¨ a t von auch gezeigt, dass
mit eine ONB von ist. Anders gesagt, entspricht der Fou - riertransformation von die ”Entwicklung von nach den Wellen ”
\
5
Tats¨achlich ist
mit
7 ! #
&
und !" $ # !"% # '&
wohldefiniert, denn f¨ur
74
ist
8.5 (Anti–) Selbstadjungierte Endomorphismen
8.23 Definition Ist ein euklidischer bzw. unit¨arer Vektorraum, dann heißt ein - - (dessen Adjungierte existiert)
selbstadjungiert, wenn
antiselbstadjungiert, wenn
,
!
gilt.
Die Begriffe (anti–) symmetrisch und (anti–) hermitesch werden ebenfalls benutzt, der erste eher bei euklidischen und der zweite eher unit¨aren Vektorr¨aumen.
/ 4 57 bei Analoge Definitionen gelten f¨ur Matrizen aus u¨ ber den K¨orpern oder . (Anti–) Selbstadjungierte Endomorphismen sind normal, denn
&
/ , falls selbstadjungiert und $ / , falls antiselbstadjungiert ist.
8.24 Satz Ist
ein unit¨arer Vektorraum,
Bew.: Wegen der Normalit¨at von
ist
und
-
diagonalisierbar, und
<7
wobei die Orthogonalprojektionen sind. Damit ist
/ gilt, ist damit , also . Falls ! Dagegen ist f¨ur der Eigenwert imagin¨ar, denn
, dann ist
.
!
.
8.25 Korollar Ist ein euklidischer Vektorraum endlicher Dimension, und selbstadjungiert, dann besitzt eine ONB aus Eigenvektoren von .
-
-
Bew.: Auch ist selbstadjungiert, das charakteristische Polynom von besitzt also nur reelle Nullstellen. Daher zerf¨allt das charakteristische Polynom von in Linearfaktoren, sodass diagonalisierbar ist. Wegen der Normalit¨at 0- von sind die Eigenr¨aume zu den Eigenwerten orthogonal.
75
!
Dass Eigenvektoren und zu den Eigenwerten f¨ur selbstadjungierte Endomorphismen aufeinander senkrecht stehen, sieht man auch folgendermaßen:
!
!
!
; . 97 !8 7 ! 7
Jeder Endomorphismus eindeutig in die Summe
-
, also
, dessen Adjungierte
!
7 ;
&
existiert, l¨asst sich
+
(32) eines selbstadjungierten Operators und eines antiselbstadjun !
gierten Operators zerlegen. Denn ist eine zweite !
solche dann ist der Operator
Zerlegung, !
; selbstadjungiert, aber wegen
auch antiselbstadjungiert, sodass
folgt.
8.26 Bemerkung Die Zerlegung (32) ist dann besonders n¨utzlich, wenn kommutieren. Dies ist wegen
37
7 !
und
7
genau dann der Fall, wenn normal ist. Nach Satz 5.27 k¨onnen wir damit f¨ur unit¨are Vektorr¨aume endlicher Di
und mension normale dadurch diagonalisieren, dass wir diagonalisieren, und eine und gemeinsame Basis von Eigenvektoren aufsuchen.
2
/32
Der Vektorraum der Endomorphismen von bzw. 2 lich des Standard-Skalarproduktes auf ) eine Zerlegung
2 ) 2 2
2
(33)
2 - 2 2 $
in den reellen Unterraum
ter Endomorphismen und den reellen Unterraum Endomorphismen. 8.27 Lemma Es ist
und
2 3
2 3
565 5
565 ! 5
76
7
7
7
7
besitzt (bez¨ug-
selbstadjungierantiselbstadjungierter
/
/
&
Bew.: Wir betrachten die darstellenden Matrizen bez¨uglich der kanonischen Basis 2 des .
* - 4 65(7 /
Um eine symmetrische Matrix zu fixieren, m¨ussen wir nur 565 die Eintr¨age oberhalb und einschließlich der Diagonale frei w¨ahlen.
565 !
* - 4 657
F¨ur eine symmetrische Matrix k¨onnen wir die komplexen Eintr¨age oberhalb der Diagonale frei w¨ahlen, w¨ahrend die Eintr¨age auf der Diagonale reell sein m¨ussen, aber ansonsten frei w¨ahlbar sind.
Die Dimensionen der reellen antisymmetrischen Teilr¨aume ergeben sich aus (33): 2 2
3
2
& 2 keine –Unterr¨aume sind, denn 2 "!
4
Beachtet werden sollte, dass
und Multiplikation mit permutiert diese reellen Unterr¨aume. Ebenso wenig ist im Allgemeinen das Produkt zweier (anti–) selbstadjungierter wieder (anti–) selbstadjungiert. In Kapitel 7.1 wurde die Exponentialabbildung auf quadratische Matrizen angewandt. 8.28 Satz F¨ur
Bew.:
* - 4 57
7 / 66*
* - 4 65(7)
oder , gilt
Ist und ist obere Dreiecksmatrix, sodass
69 !
2
gilt. Andererseits ist
96* )
und
9
! +9 * *
R
2
A !
\
6* )
Jordan-Normalform, dann ist
)
woraus (34) folgt. 77
(34)
\
&
\
! 97
+A 9
eine
Ist
- 4 57 /
3
woraus (34) auch f¨ur
* - 4 65(7
8.29 Satz Ist
und
* - 4 65(7 /
folgt.
)
97
antiselbstadjungiert, dann ist
96* -
)C
65 65
, falls , falls
/ -
&
9* - 4 6 5(7 A* +6* ! 9 ! * )
A9 ! * 9 6;
! ! 6* die Identit¨at 96* ! +A > 6* !
F¨ur C 96* Bew.: \ 4C 5, 7denn / wegen
.
, dann gilt f¨ur die komplexifizierte Matrix
8.30 Beispiel F¨ur - / f¨ur ein , und
A*
/
2
* 2
5
50
ist
7/
* - 4
$
von der Form
2 2 \ 5
2 !
und
$ $ )
\
S
* \
! $ \ \ &
Es handelt sich also um eine Drehung um den Winkel .
8.6 Anwendung: Quantenmechanik Zerlegt man das Sonnenlicht mit einem Prisma, dann zeigen sich neben einem kontinuierlichen Spektrum feine Linien. Deren Existenz folgt aus der Tatsache, dass die in einem Atom oder Molek¨ul gebundenen Elektronen nur diskrete Energiewerte annehmen k¨onnen; man spricht von einer gequantelten Energie. Die Vermutung, dass diese reellen Energiewerte Eigenwerte eines selbstadjungierten Operators sind, ist naheliegend und zutreffend. Die Theorie dieser so genannten Schr¨odingeroperatoren ist die Quantenmechanik.
78
8.31 Beispiel F¨ur den Fall des Wasserstoffatoms ist der unit¨are Vektorraum des / B / B Elektrons der Raum der quadratintegrablen Funktionen6 mit dem Skalarprodukt
7
Der Schr¨odingeroperator
auf
%
/ B
&
ist von der Form
! ! 7
wobei der so genannte Laplaceoperator ist, und die Mul! tiplikation mit dem Potential der Kernladung die elektrostatische Anziehung des Elektrons durch den Kern beschreibt. Man kann nun das Spektrum von berechnen: @! ;A7 ! ( 5 5 - $ &
@
%
/
In einer geeigneten Energieeinheit entspricht diese Teilmenge von genau den Energien, die ein Elektron im Kraftfeld eines Wasserstoffatomkerns (eines Protons) annehmen kann: F¨ur positive Energien ist das Elektron ungebunden und Wasserstoffatom bekann beliebige Energien annehmen, w¨ahrend die f¨u! r das obachteten Spektralwerte Energiedifferenzen 2 entsprechen, die dem ¨ Ubergang von einem zum anderen gebundenen Zustand entsprechen.
Ein Hauptziel der Quantenmechanik ist die (meist n¨aherungsweise) Berech nung des Spektrums und der Eigenfunktionen der Schr¨odingeroperatoren . Dies ist auch deshalb wichtig, weil es der Schl¨ussel zur Berechnung der Zeitentwicklungsoperatoren
& +A !
&
&.-0/
ist, die Anfangszustand zur Zeit Null auf den Zustand & & den quantenmechanischen &
zur Zeit abbilden. Die Operatoren
sind unit¨ar, wenn selbstadjungiert ist.
9 Quadriken
Bis jetzt wurden in dieser Vorlesung haupts¨achlich solche Teilmengen von Vektorr¨aumen betrachtet, die selbst Vektorr¨aume sind, oder bei denen zu-
¨ Genauer: Aquivalenzklassen solcher Funktionen mit unterscheiden. 6
79
, die sich nur um eine Funktion
!
97
-
mindest die Menge $ aller Differenzvektoren einen Unterraum von bildet (nicht leerer affiner Unterraum ). Jetzt werden wir verallgemeinert Quadriken untersuchen. Beispiele solcher / Quadriken f¨ur sind neben den Geraden die Ellipsen, Parabeln und Hyperbeln. Um Fallunterscheidungen zu vermeiden, betrachten wir nur K¨orper der
Charakteristik .
9.1 Definition Eine Teilmenge 97 7 2 Polynom mit &&&
97
existiert.
2
7 2 -
&&&
9 7 7 2 &&& ) * > * - 4 57 97 -
2 97
>
> #
Wir k¨onnen nun mit
heißt Quadrik, wenn ein quadratisches
7 2) +; $
&&&
dieses Polynom in der Form
2
-
-
2
schreiben, wobei und eindeutig bestimmt sind, * * * wenn wir von > (also die Symmetrie * fordern6* (Letzteres * k¨onnen wir ¨ wegen immer durch Ubergang von zu > erreichen). Man sieht dem Polynom nicht direkt die geometrische Form der Quadrik ¨ an. Uberhaupt m¨ussen wir uns zun¨achst u¨ ber diese Formen ins Bild setzen. Dazu 2 ist es naheliegend, eine Koordinatentransformation des vorzunehmen, die das Polynom vereinfacht. In Frage kommen zun¨achst die so genannten Affinit¨aten:
9.2 Definition Eine Abbildung wenn die Abbildung
2 *
von
–Vektorr¨aumen heißt affin,
"! ;'
linear ist. Sie heißt Affinit¨at, wenn sie zus¨atzlich bijektiv ist.
Die Affinit¨aten ) * Form \
*
f¨ur
!
!
2
eine Gruppe, denn jedes solche besitzt die - 2 - bilden 657 mit und , sodass \ ! * \ + * ! +* und
gilt.
/ 2
9.3 Beispiel Beispiele f¨ur Affinit¨aten des 65 sind die Drehungen - / C
C ! , die Streckungen um einen Faktor ) 8 - / 2 Translationen um den Vektor . 80
!
) ; C
$
mit oder die
Es ist nun rationell, sowohl die Affinit¨aten als auch die Quadriken des 2S darzustellen. Ist n¨amlich
! +*
-
die Eigenschaft eines Gruppenhomomorphismus
)
!
3
S
7
)
2
(wobei eine weitere Affinit¨at des sei). - 2 Ordnen wir dem Vektor den erweiterten Vektor zu, dann gilt
!
S
)
-
Ordnen wir andererseits dem quadratischen Polynom
(mit der Bilinearform
zu, dann ist
) 7 * + 7
:
7 3
symmetrisch (
-
2S
&
(35) 97 & & & 7 2 der Form
2 2 ) die Matrix -04 65 7
&&&
#
DS
), und es gilt ) 7 &
>
2
(36)
;< \ zugeordnete Quadrik
Wir wollen nun durch eine Affinit¨at des die 2 auf eine m¨oglichst einfache Form bringen. D.h. wir substituieren . Wegen (36) und (35) bedeutet dies
A
im
- 4 65 ' 7
2
2
eine Affinit¨at, dann gilt f¨ur die erweiterte Matrix
7 7 ) 7 mit > &
/
in
(37)
Zur L¨osung dieses Normalformproblemes f¨ur den Spezialfall schauen wir uns zun¨achst das verwandte Problem der Normalform unter orientierungserhaltenden Kongruenzen an: 81
/ 2
9.4 Definition Eine Affinit¨at
/ 2
heißt
Kongruenz, wenn sie Abst¨ande erh¨alt, d.h.
"!1 A
!
Sie heißt orientierungserhaltend, wenn gilt.
7 -0/ 2
6*
;
(mit
& (38) *,
*,
)
Eine Affinit¨at ist genau dann eine Kongruenz, wenn * gilt, und genau dann eine orientierungserhaltende Kongruenz, wenn / 2 Weiter kann man zeigen, dass jede abstandserhaltende Abbildung (f¨ur die also (38) gilt) eine Affinit¨at ist.
- / 7
7 & *& & 2 *
* C ! /
5 C 6 5 2 .
ein quadratisches Polynom der Form 7 *, 7 ,6*
mit , dann existiert eine ori> und / 2 entierungserhaltende Kongruenz des mit 9.5 Satz Ist
A!
Dabei sind * & symmetrischen Matrix .
&&
7 7
S
7
, , ,
die von Null verschiedenen Eigenwerte der
) ) ) &
A
Bew.: Gem¨aß (37) besitzt das quadratische Polynom die Form 7 > . Wir setzen aus vier orientierungserhaltenden mit
B Kongruenzen zusammen: .
?
1. Dabei ist C , wobei wir zun¨achst nur C
ist die Transponierte von % gleich % ein C mit
- 65 C fordern. Damit
> % % % und es gibt
7 & & & 7 ,7 ;A7 & & & ;< & - 65
!C Ist C , also nicht orientierungserhaltend, dann k¨onnen wir dies ! '7 7 & & & 7 C - !C 65 erzwingen. ¨ durch zur Drehmatrix
Ubergang ; Ist , dann ist der Satz damit bewiesen. >
%
%
#
und
82
2. Wir w¨ahlen
)
von der Form
mit
! ; ( 77
Dann ist >
%
%
, wobei )
#
;
&
&&&
+;
ist.
;
3. Wegen der Annahme ist auch . Es gibt aber eine Drehung 65
65 ! B B B von der Form C mit C B C !
C C
!C
, die B mit –ten C S bewirkt, also in Richtung des B Einheitsvektors dreht. Damit gilt f¨ur B C
$
>
die Diagonalmatrix
4. Ist
!
#
S
also
#
!
; ;
S
und
>
%
%
, dann ist f¨ur
%
bleibt also unver¨andert.
%
%
%
7
B
7
.
9.6 Ist und , dann ist die 7 *,Bemerkung @quadratische
. Form/ 2 eine Drehung , und der Satz besagt, dass es gibt, - C 65 des A! C die in Diagonalform transformiert. C heißt dann auch Hauptachsentransformation.
Wir kehren zu unserer urspr¨unglichen Fragestellung der Normalform von Quadriken unter Affinit¨aten zur¨uck und zeigen:
- / 7 7 2 & *& & * 7 *, 7
ein quadratisches Polynom der Form ,6*
mit und , dann existiert > \ ;<eine ori/ 2 / 2 entierungserhaltende Affinit¨at des , f¨ur die die Quadrik durch die Gleichung 9.7 Satz Ist
&&& &&& &&&
!
S
!
S
!
S
! &&&! ! &&&! ! &&&!
;
beschrieben wird. 83
7
S
7
7
, , ,
) ) )
Bew.:
<
7
7
\ 7 7
&&
,
) &
&&& & Ist mit unter Verwendung der orientierungserhaltenden Kongruenz
<)
Ist dagegen
\
!
S
, falls
, dann ist aus Satz 9.5
, , dann setzen wir < mit
7 '7 7 7 7 ! 9 <3 &&& & & & , sodass
ist. ! , dann permutieren wir noch die Ist #
7
%
\
#
S
97
7
7
mit den S & & & Dies ist eine orthogonale Transformation, und wir k¨onnen wieder die Posi! ertivit¨at der Determinante durch Multiplikation einer Koordinate mit zwingen.
Im letzten Fall
S
S
! #
ersetzt.
5
Die Quadrik von
&&&
h¨angt nicht vom Vorfaktor
;
ab.
¨ wird durch Ubergang zur Variablen reskaliert und die Konstante gleichzeitig durch Null
;
! '7
$, $, 9.8 Beispiel 1. F¨ur kommen die F¨alle
/ und vor, entsprechend den Kardinalit¨aten der L¨osungsmengen quadratischer Gleichungen. 5
2. F¨ur k¨onnen wir zun¨achst die Quadriken der eindimensionalen Nor / ; / $ , die malformen mit multiplizieren, und erhalten die Gerade
/ ! '7
/ $ , die Ebene Doppelgerade und die leere Menge.
) ;
97 -0/ !
Diese sind die Asymptoten der Hyperbel $.
Die Quadrik zur Gleichung ist nat¨urlich der Kreis mit Radius
hat als L¨osungsmenge den Nullpunkt, w¨ahrend Die Gleichung ) !
+;
f¨ur die beiden Winkelhalbierenden die Quadrik \ ergeben.
um den Nullpunkt. Zuletzt beschreibt die Gleichung
84
eine Parabel.
7
.
Punkt
Gerade
Doppelgerade
Geradenpaar
Hyperbel
5
Abbildung 4: Affine Normalformen der Quadriken f¨ur (außer
) mit eingezeichnetem Ursprung des Koordinatensystems
Kreis
/
Parabel
,
¨ Die Aquivalenzklasseneinteilung bez¨uglich orientierungserhaltender Kongruenzen ist feiner als die bez¨uglich Affinit¨aten. Beispielsweise erhalten wir statt des %
; Kreises die Kongruenznormalformen % mit der Ellipsen, deren Halbachsen mit den L¨angen in Richtung der –Achsen gedreht sind:
85
Wir sehen, dass wir sowohl im affinen als auch im Kongruenzfall Normalfor- 5 / 2S men von gewissen Quadriken der Dimension erhalten, indem wir im / 2 (statt im ) die Nullstellenmenge der quadratischen Polynome von Normalfor5 men der Dimension betrachten. Man spricht dann1 von Zylindern: 1 quadrik.nb quadrik.nb quadrik.nb 2
y
2
y
1
0
1
y
0
-1
2 1
0
-1
-1
z
-2 2
-2 2
1
1
z
0
-2 2 1
z
0
0
-1 -1
-1
-2 -1 -0.5
-2 -2
0
x
-1
-2 -1 -0.5
0
x
0 0.5 1
x
1 2
0.5 1
Abbildung 5: Affine Normalformen von Quadriken f¨ur ! (Doppel-Ebene), (Ebenenpaar)
86
5@ D :
(Ebene),
!
quadrik.nb
1quadrik.nb
quadrik.nb
y
y 0.5 1
1
0
0 -0.5 -1 -1.5 -2 2
-0.5 -1 1
2 1
z
y
0
-1
0.5
z
0 -1
1
x
-1
0 1
1
0
z
0
-0.5
-2 -2
-1 -1 -1
-1
-0.5 0
x
-2
0
x
1
0.5
2
1
50 +D !
Abbildung 6: Affine Normalformen von Quadriken f¨ur ! der u¨ ber Hyperbel), (Zylinder u¨ ber Kreis), Parabel)
!
:
!
!
(Zylin(Zylinder u¨ ber
Daneben finden wir in jeder Dimension jedoch auch Quadriken, die nicht Zylinder sind: 1quadrik.nb quadrik.nb quadrik.nb y 0.5 1
y
0
y
0
-0.5
-1
-2 2
0.5
-2 2
1
z
0
-0.5
1
z
0 -1
-1 -1
0 -1
-2 -2
-2 -2 -1
-0.5
-1
0
x
2 1
0
-1
-1 1
z
2 1
0
x
0.5
0
x
1
1
1
2
2
5 D
Abbildung 7: Affine Normalformen von Quadriken f¨ur ! ! (Sph¨are), (einschaliges Hyperboloid),
10 Projektive R¨aume
:
!
Der projektive Raum 10.1 Definition zum Vektorraum ge der eindimensionalen Unterr¨aume von . 87
!
(Kegel)
ist die Men-
1
quadrik.nb
1quadrik.nb
quadrik.nb
y
2
y
1
0
1
-1
2
y
1
1
0
0 -1
-1 -2 2
-2 3 1
z
z
0
1
2
z
1
0
-1 0 -2
-2
-1 -1
-1
x
x
0 1
-2 -2
0 1
-1 0
2
x
2
1 2
5 D !
Abbildung 8: Affine Normalformen von Quadriken f¨ur ! (zweischaliges Hyperboloid), (Paraboloid),
Ist , dann heißt des projektiven Raumes.
!
!
7
:
!
! ) !
(Sattel)
die Dimension
3 heißt UnterEine Teilmenge der Form raum von , und zwar projektive Gerade, falls , projektive
Ebene, falls und projektive Hyperebene, falls "! .
2 S 2 Eine Sichtweise des projektiven Raumes zum arithmetischen Vektorraum ist die folgende. 7 Bequemlichkeitshalber 7 7 2 7 bezeichnen 7 7 2 wir die kanoni2S & & & 7 statt & & & S , und sche Basis des mit mit 7 7 2 die )97 Koor7 dinaten . Der Unterraum &&& 2 5 uglich dieser Basis mit 2 S bez¨ 2 &&& - ist –dimensional, und sei mit bezeichnet. Dann geht durch jeden Punkt
des affinen Unterraums
2 7 7 2 &&&
2S
$
genau ein eindimensionaler Unterraum, n¨amlich . Nur die eindimensio2 nalen Unterr¨aume, die in liegen, schneiden nicht. Die Abbildung
2
2
,
97
'7 97 & & & 7 2
7 2
&&&
(39)
ist daher injektiv, und das Komplement besteht aus den eindimensionalen Un2 terr¨aumen des : 2
2
88
2]\
&
2
Anders gesagt, wird im projektiven Raum 2 der Vektorraum noch um ”Punkte bei Unendlich” erg¨anzt, und diese bilden selbst den projektiven Raum 2 \ .
/ 6;A7
10.2 Beispiel Am einfachsten l¨asst sich dies im reellen Fall 1. Im Fall des
/
ist die affine Gerade
'7 ;<
visualisieren.
/
'7 ;<
/ /
/ /
Es gilt genau einem Element, das wir hier mit
'7
ist von der Form gegen unendlich, dann strebt ist die Abbildung
/
,
0
$
/
, denn bezeichnen.
,
besteht aus
(7 ( , und strebt
!
- !
mit ( gegen , also
/
gegen
/
. Daher
!
/
eindimensionalen, des in die Kreislinie / reell–projektiven Raumes
$ bijektiv. Wir k¨onnen uns also den als Kreislinie vorstellen. 2. Dies l¨asst sich auf h¨ohere Dimensionen verallgemeinern. Jeder eindimen/ 2S 2 - / 2 S sionale Unterraum des schneidet die Sph¨are
$ in genau zwei Punkten und , und diese sind Antipoden, d.h. ; 2 . Andererseits geht durch jedes Antipodenpaar von genau ein ¨ eindimensionaler Unterraum. Bezeichnet daher die Aquivalenzrelation . A 2 auf , die durch definiert ist, dann ist die Abbildung 2 ( 2 / ,
89
5
2 /
bijektiv. Der –dimensionale projektive Raum identifiziert werden.
2(
kann also mit
( ¨ Nun ist zwar
selbst wieder eine Kreislinie, aber Ahnliches gilt f¨ur h¨ohere Dimensionen nicht.
/ dann k¨onnen wir auch die Nord; - vorstellen wollen, $ nehmen und Antipoden auf dem ! ;
$ identifizieren. Der Schnitt zweier projektiver Unterr¨aume von 97 ist wieder ein projek-
Wenn wir uns den halbkugel - ¨ Aquator
tiver Unterraum, und f¨ur die Unterr¨aume
)
von
gilt
&
Andererseits ist auch der Verbindungsraum
zweier projektiver Unterr¨aume von und zwar der kleinste, der sowohl
wieder ein projektiver Unterraum, als auch
enth¨alt.
10.3 Beispiel 1. Modulo Antipodenidentifikation entsprechen die eindimen/ sionalen projektiven Unterr¨aume von den Großkreisen auf . Zwei verschiedene solche Großkreise schneiden sich genau in einem Antipoden/ paar, sodass sich die projektiven Geraden des in genau einem Punkt schneiden.
/ B
/
2. Den Punkten
des entsprechen / die Antipodenpaare . Der Verbindungsraum von
entspricht also dem eindeuti gen Großkreis auf , der durch die Antipodenpaare
und
geht. 90
W¨ahrend sich zwei affine Geraden in der Ebene nicht schneiden, wenn sie parallel sind, schneiden sich, wie wir gesehen haben, projektive Geraden in / der projektiven Ebene immer, man muss also keine Fallunterscheidung vornehmen. Allgemein gilt:
97
10.4 Satz Sind dann gilt
Bew.: Es gilt sich mit
!
!
! die Formel ergibt.
Auch die leere Menge ist ein projektiver Unterraum von ) ! es ist . Wir folgern:
10.5 Korollar Ist
Bew.: ; .
Unterr¨aume des endlich–dimensionalen Vektorraumes
)
&
!
, denn
,
&
, woraus
;
$
;
, dann ist
Nachdem wir nun verschiedene Aspekte projektiver R¨aume studiert haben, sollen jetzt Abbildungen zwischen ihnen eingef¨uhrt werden, die ”die projektive Struktur erhalten”. Es ist aber zun¨achst nicht ganz klar, was dies bedeutet. Denn w¨ahrend auf Gruppen, Ringen, K¨orpern oder Vektorr¨aumen Verkn¨upfungen erkl¨art sind, 91
k¨onnen wir Punkte eines projektiven Raumes weder addieren noch mit einem K¨orperelement multiplizieren. Der wurde nur als Menge eingef¨uhrt, die Menge der eindimensionalen Unterr¨aume von . Als Automorphismen von kommen daher zun¨achst alle bijektiven Abbildungen in Frage. Tats¨achlich besitzen projektive R¨aume doch mehr Struktur, denn einer ; ¨ seits entstehen sie durch Aquivalenzklassenbildung auf $ aus dem Vektor A raum (mit , falls ), andererseits besitzen sie mit den projektiven Unterr¨aumen ausgezeichnete Teilmengen. Wir k¨onnen also als strukturerhaltende Abbildungen
diejenigen
w¨ahlen, die
1. von einer linearen Abbildung
abstammen
2. oder die projektive Unterr¨aume auf projektive Unterr¨aume abbilden.
Ist , dann erf¨ullt jede Bijektion die zweite Forderung, einfach, weil außer sich nur die leere Menge als projektiven Unterraum besitzt. Man k¨onnte also denken, dass die zweite Forderung von viel mehr Abbildungen als die erste erf¨ullt wird.
/ und insbesondere nicht der Fall ist, ist Dass dies f¨ur Inhalt des so genannten Hauptsatzes der projektiven Geometrie. 7 Wir werden jetzt die Abbildungen untersuchen, die der (einfacheren) Bedingung 1. gen¨ugen:
10.6 Definition Es seien und –Vektorr¨aume. Dann heißt projektiv, wenn eine lineare Abbildung existiert, f¨ur die
)
-
gilt, und man schreibt dann . Ist zus¨atzlich bijektiv, dann heißt
;$
Projektivit¨at.
Allerdings ist Forderung 2. z.B. im Fall des K¨orpers
- auch f¨ur & schw¨acher als Forderung 1., denn gilt f¨ur die Eigenschaft 7
dann ist
zwar nicht linear, aber mit
aber
ist auch
92
ein Unterraum.
Um die Wirkung einer projektiven Abbildung besser zu verstehen, ist es n¨utz
lich, Koordinaten auf einzuf¨uhren. Ist , dann erwarten wir, 5 einen Punkt von durch Angabe von Koordinaten, d.h. Zahlen aus , be5 schreiben zu k¨onnen, wie wir dies von –dimensionalen –Vektorr¨aumen gewohnt sind. dies ist auch m¨oglich, allerdings nur lokal.
/
#
#
10.7 Beispiel Die Punkte von entsprechen den Unterr¨aumen 7 - / ;
; / f¨ur $ . Ist , dann ist f¨ur 7 7 . ; ( -0/ / Ist , dann k¨onnen wir als lokale Koordinate in benut ( ( zen, denn , d.h. der Quotient h¨angt nicht vom Repr¨asentanten von ab. ; ; ( - / Ist dagegen , dann ist wegen der Quotient wohldefi /
. niert, und wir nutzen diesen als lokale Koordinate auf
# #
$$$ 2
Um diese Fallunterscheidungen zu vermeiden, werden zur Beschreibung des pro 2S oft so genannte homogene Koordinaten jektiven Raums 2
7 7 benutzt mit &&& 2 und der Verabredung, dass ;
;A7 & gilt, wenn eine Zahl $ mit
2S ; 7
$
$$$ 2 # # & & 7 5 existiert. genau dann Dies sind zwar keine Koordinaten im u¨ blichen Sinn, aber wir k¨onnen sie zur ; Konstruktion lokaler Koordinaten verwenden: Wegen existiert ein mit ; 5 ( 7 ( 7 7 \ ( 7 ( 7 7 2 ( - 2 &&& S &&& , und das –Tupel ist repr¨asentantenunabh¨a ngig. - 2 S von der Form * , * - 4 65 '7 , dann Ist nun besitzt
$$$
$$$
2 -
die homogenen Koordinaten
$$$
? : : 2 2) &&& 2 2 &&& 2 2 * (wobei + ;
; ist). Ist nun z.B. und , dann ergibt sich die (lokale) Koordinatentransformation A ( A ( &
#
Man spricht hier von gebrochen linearen Transformationen.
93
*
- 4 7/
;
10.8 Beispiel Ist , dann ist lokal f¨ur und # + ) ( 7 ( ; = d.h. in den Koordinaten durch
%
gegeben.
94
;
,
gebrochen.nb
3
-ab2 1 -3
-2
-cd ca1 2
-1
db 3
-1 -2 -3
;
2 # Allgemein bildet eine Projektivit¨at den projektiven Raum eingebetteten Vektorraum
Das ist genau dann der Fall, wenn '7 & & & 7 5 ist, und in diesem Fall ist 2 mit Dies ist genau eine affine Abbildung, wenn
#
ist, also
( ) % (
.
2 den in der Form (39) in 2 2 nicht in sich ab. ) * * ;A7
mit 2
#
eine Affinit¨at.
Literatur [1] Brieskorn, E.: Lineare Algebra und analytische Geometrie. Vieweg 1982 [2] Fischer, G.: Lineare Algebra. Vieweg 1995 [3] Kn¨orrer, H.: Geometrie. Vieweg 1996 [4] Kostrikin, A.I.; Manin, Y.I.: Linear algebra and geometry. Gordon & Breach, 1997 [5] Kowalsky, H.-J.: Einf¨uhrung in die Lineare Algebra. de Gruyter 1971 [6] Waerden, B.L. van der: Algebra Bd 1. Springer 1971 [7] Walter, R.: Einf¨uhrung in die lineare Algebra. Vieweg 1982 [8] Walter, R.: Lineare Algebra und analytische Geometrie. Vieweg 1985
95
Index Euklidische Norm 56 Faktorraum 6 Fittingindex 37 Fouriertransformation 74 Generatormatrix 7 Gram-Schmidt-Verfahren 63 Gruppe der Affinit¨aten 81 orthogonale 71 speziell orthogonale 71 speziell unit¨are 71 unit¨are 71 Hauptsatz der projektiven Geometrie 93 Hyperbel 85 Hyperboloid einschaliges 88 zweischaliges 89 Imagin¨arteil 49 Isometrie 70 Jordanbasis 44 Jordanmatrix 44 Jordanzerlegung 40 kanonischer Homomorphismus 10 Kegel 88 komplexe Struktur 48 Komplexifizierung 49, 51 Kongruenz 83 Konjugation 50 konjugiert-linear 65 Kontrollmatrix 8 Koordinaten, homogene 94 lineare Differentialgleichung 33 Linearform 8 Matrizen
Abbildung adjungierte 64 affine 81 normale 67 transponierte 12 Abtast-Theorem 12 Affinit¨at 81 a¨ hnlich 25 algebraisch abgeschlossen 26 Anfangswertproblem 55 antiselbstadjungiert 76 Blockdiagonalform 21 Boysche Fl¨ache 99 Cauchy–Schwarz–Ungleichung 61 Code dualer 16 Hamming- 16 Parit¨ats- 8 perfekter 17 Simplex- 16 darstellende Matrix 24 diagonalisierbar 22, 27 Differentialgleichung 33, 55 Dimension 89 direkte Summe 20 a¨ ußere 19 innere 18 direktes Produkt 20 Doppelgerade 85 duale Basis 9 Eigenraum 23 verallgemeinerter 35 Eigenvektor 23, 68 verallgemeinerter 35 Ellipse 86 96
a¨ hnliche 25 a¨ quivalente 24 nilpotent 27 Nilpotenzindex 27 Normalform 24 Operatornorm 56 orthogonal 70 Orthogonalbasis 62 orthogonales Komplement 13 Orthonormalsystem 62 Parabel 85 Paraboloid 89 Partition 34 Polarisationsidentit¨at 61 Projektion 21, 23 Orthogonal- 63 projektiv 93 projektiver Raum 88 Projektivit¨at 93 Quadrik 81 Quotientenraum 6 Rang 15 Realteil 49 Reellifizierung 47 Sattel 89 Schr¨odingeroperator 79 selbstadjungiert 76 Skalarerweiterung 49 Summe 18 transponierte Abbildung 12 unit¨ar 70 Vektor erzeugender 29 primitiver 31 Verbindungsraum 91 zyklisch 29 Zylinder 87
97
Abb.: Boysche Fl¨ache (Immersion des schungsinstitut Oberwolfach.8
8
/
in
/)B
), Mathematisches For-
Weitere Informationen unter http://www.mfo.de/boysurface/boysurface.html
98