1. Lineare Systeme im Zeitbereich 1.1. Lineare zeitinvariante Systeme. 1.1.1. Heuristik: Was stellt man sich anschaulich...
14 downloads
767 Views
608KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
1. Lineare Systeme im Zeitbereich 1.1. Lineare zeitinvariante Systeme. 1.1.1. Heuristik: Was stellt man sich anschaulich unter einem System und einem Signal vor? Ein System wandelt Signale um. Ein Eingangssignal (Input) kommt an, wird im System verarbeitet, und ein Ausgangssignal (Output) wird weitergeleitet. Beispielsweise • Stereoanlage. Input = Codiertes Tonsignal auf CD. Output = Schalldruck, von Lautsprecher generiert. • Teilsystem des obigen: Niederfrequenzverst¨arker. Input = schwache Spannung vom CD-Spieler. Output = verst¨arkte Spannung an die Lautsprecher. Die Signale ordnen jedem Zeitpunkt eine Spannung (entsprechend dem Schalldruck) zu. • Entrauschen von Bildern durch ein Computerprogramm. Input = verrauschtes Bild (als Folge von Zahlen, die Grauwerte ausdr¨ ucken). Output = entst¨ortes Bild. Die Signale ordnen jedem Punkt auf der Bildfl¨ache einen Grauwert zu. • Steuerung eines Kranarms. Input = Stellung des Steuerhebels. Output = Bewegung des Kranarms. • Regulation des Blutdrucks im menschlichen K¨orper bei Arbeitsbelastung. Input = Arbeitsleistung. Output = arterieller Blutdruck. • Teilsystem des obigen: Steuerung der Herzt¨atigkeit durch das Nervensystem: Input = arterieller Blutdruck, erfasst von den Barorezeptoren im Aortenbogen. Output = Herzfrequenz. Mathematisch abstrahiert ist ein Signal eine Abbildung, die einer unabh¨angigen Variablen (oft Zeit) eine skalare oder vektorwertige abh¨angige Variable zuordnet. Man unterscheidet • Signale mit diskreter oder kontinuierlicher unabh¨angiger Variablen. Beispiele: Diskret: t¨agliche Temperaturmessung zu Mittag. Kontinuierlich: Auslenkung der Nadel eines Plattenspielers. Die Umwandlung von kontinuierlichen Signalen in diskrete durch periodische Datenentnahme heißt Abtastung (Sampling). • Signale mit diskreter oder kontinuierlicher abh¨angiger Variablen. Beispiele: Diskret Farbwerte in Bildern bei Computerspeicherung. Kontinuierlich: Windst¨arke. • Skalare und vektorwertige Signale. Man unterscheidet deterministische und stochastische Systeme. Beim deterministischen System bestimmt das Eingangssignal eindeutig das Ausgangssignal. Beim stochastischen System wird das Ausgangssignal vom Eingangssignal und Zufallseffekten beeinflusst. Die Entscheidung zwischen deterministisch und stochastisch liegt in Wirklichkeit nicht am System, sondern meist an der Modellierung. Beispiel: Entwicklung einer Population. Bei großen Bev¨olkerungszahlen modelliert man deterministisch, etwa durch exponentielles Wachstum. Bei kleinen Bev¨olkerungszahlen wird der Einfluß des Zufalls immer wichtiger, z.B. ob eine Population von ein paar B¨aren in einem Gebiet u ¨berlebt. 1
2
1.1.2. Funktionenr¨ aume. Wir beginnen jetzt mit der mathematischen Abstraktion, dabei werden wir uns nur mit kontinuierlichen, deterministischen Signalen besch¨aftigen. Unsere Signale sind einfach Funktionen, Elemente aus einem der folgenden Funktionenr¨aume: Definition 1.1.1. Sei J ein Intervall, m¨ oglicherweise auch unbeschr¨ ankt, sei ω ∈ R, n ∈ N. Wir definieren die Funktionenr¨ aume Cub (J, Cn ) = {f : J → Cn gleichm¨ aßig stetig und beschr¨ ankt} , © ª n n −ωt Cub,ω (J, C ) = f : J → C | e f (t) gleichm¨ aßig stetig und beschr¨ ankt . Diese R¨ aume bilden mit den folgenden Normen normierte Vektorr¨ aume: kf kL∞ = sup{|f (t)|, t ∈ J}, kf kL∞ = sup{e−ωt |f (t)|, t ∈ J}. ω Die Subscripts u,b stehen f¨ ur “uniformly continuous, bounded”. Die Einf¨ uhrung der Gewichtung ω erlaubt die Betrachtung von Funktionen, die entweder f¨ ur t → ∞ oder t → −∞ gegen unendlich wachsen. (Nimm ω > 0 bzw. ω < 0.) Ist J ein beschr¨anktes Intervall, bringt die Einf¨ uhrung von ω nichts. Beachten Sie auch, dass Konvergenz in der Norm k · kL∞ nichts anderes bedeutet als gleichm¨aßige Konvergenz. Die Schreibweise k · kL∞ ist eine Konvention, die wir erst weiter unten erkl¨aren k¨onnen. Oft ist es notwendig, auch unstetige Funktionen zuzulassen. Daher f¨ uhren wir eine zweite Klasse von Funktionenr¨aumen ein: Definition 1.1.2. Sei J ein Intervall, m¨ oglicherweise auch unbeschr¨ ankt, sei p ∈ [1, ∞), sei ω ∈ R, n ∈ N. Sei f : J → Cn eine meßbare Funktion. Wir definieren die Halbnormen kf kp,ω und kf kp : ·Z ¸1/p p kf kLp = |f (t)| dt , J
·Z kf kLpω =
¸1/p |e−ωt f (t)|p dt .
J
Dann ist Lp (J, Cn ) = {f : J → Cn , meßbar kf kLp < ∞} , © ª Lpω (J, Cn ) = f : J → Cn , meßbar kf kLpω < ∞ . Es ist leicht zu sehen, dass Lp und Lpω Vektorr¨aume sind. Der Grenzfall f¨ ur p → ∞ f¨ uhrt zur Supremumsnorm k · kL∞ . Die Halbnormen sind aber keine Normen: Wenn eine Funktion f fast u ¨berall gleich Null ist, ist kf kLpω = 0. Wir werden diese technische Ungereimtheit mit der n¨achsten Definition bereinigen. Definition 1.1.3. Sei p ∈ [1, ∞), ω ∈ R, Der Raum Lpω (J, Cn ) besteht aus allen ¨ ¨ Aquivalenzklassen von Funktionen in Lpω (J, Cn ) bez¨ uglich der Aquivalenzrelation f ≡ g genau wenn f (t) = g(t) f¨ ur fast alle t ∈ J. ¨ Den Raum aller Aquivalenzklassen von Funktionen aus Lp (J, Cn ) bezeichnen wir mit Lp (J, Cn ).
3
Wir werden vor allem die R¨aume L1 (J, Cn ) und L2 (J, Cn ) verwenden. Der zweite Raum hat den großen Vorteil, dass seine Norm von einem inneren Produkt stammt: ¨ Definition 1.1.4. Seien f, g ∈ L2ω (J, Cn ) und f˜, g˜ je ein Repr¨ asentant der Aquivalenzklassen f, g (also je eine Funktion aus L2ω (J, Cn )), sei h·, ·i das innere Produkt auf Cn . Wir definieren die inneren Produkte Z hf, giL2 = hf˜(t), g˜(t)i dt, ZJ hf, giL2ω = e−2ωt hf˜(t), g˜(t)i dt. J
Oft ben¨otigt man R¨aume von differenzierbaren Funktionen. Definition 1.1.5. Sei k ∈ N, k > 0, p ≥ 1. Sei f ∈ Lpω (J, Cn ). Wir schreiben f ∈ Wωk,p (J, Cn ) genau dann, wenn gilt: Es gibt Funktionen f (0) = f, f (1) , · · · , f (k) ∈ Lpω (J, Cn ) sodass je eine die Stammfunktion der n¨ achsten ist Z t (m) (m) f (t) − f (s) = f (m+1) (τ ) dτ s
f¨ ur fast alle s, t ∈ J und alle m ∈ {0, · · · , k − 1}. Statt Wωk,p (J, Cn ) mit ω = 0 schreiben wir wieder Wk,p (J, Cn ). Als Norm auf Wk,p f¨ uhrt man ein: " kf kWk,p =
k X
#1/p kf (m) kpLp
m=0
Bemerkung 1.1.6. (a) Ist f ∈ Wωk,p , so sind die Funktionen f = f (0) , f (1) , · · · , f (k−1) fast u ¨berall differenzierbar. Dabei ist f (m) die m-te Ableitung von f . (b) Die Definition mit Hilfe der Stammfunktionen klingt schwerf¨ allig. Eine Definition mit Hilfe der k-fachen Differenzierbarkeit fast u ¨berall hat aber T¨ ucken. Es ist n¨ amlich nicht so, dass jede fast u ¨berall differenzierbare Funktion eine Stammfunktion ihrer Ableitung ist.
Auf ersten Blick sehen die R¨aume C und L1 besonders nat¨ urlich und g¨ unstig aus. Vom Standpunkt der Funktionalanalysis (der Analysis in unendlichdimensionalen normierten R¨aumen) sind aber gerade diese R¨aume besonders kompliziert und immer f¨ ur pathologische Gegenbeispiele geeignet. Dagegen hat L2 als Hilbertraum (vollst¨andiger Raum mit innerem Produkt) eine besonders bequeme Theorie. Auch die R¨aume Lp mit p ∈ (1, ∞) sind vom funktionalanalytischen Standpunkt gesehen “gutm¨ utig”.
4
1.1.3. Systeme als Abbildungen zwischen Funktionenr¨ aumen, Blockdiagramme. Wir k¨onnten in jedem der obigen Funktionenr¨aume arbeiten, mit reell-, komplexoder auch vektorwertigen Funktionen. Wir schreiben hier alle Definitionen im Raum L1ω (R, R). Selbstverst¨andlich kann man ganz analog Systeme in anderen Funktionenr¨aumen erkl¨aren. Definition 1.1.7. Ein (kontinuierliches, deterministisches) System ist eine Abbildung ( L1ω (R, R) → L1ω (R, R), T : f 7→ T f. Regelungstheorie beruht darauf, aus Einzelkomponenten komplexere Systeme aufzubauen, und die Eigenschaften dieser komplexen Systeme zu untersuchen. Definition 1.1.8. Aus zwei Systemen S, T in L1ω (R, R) bilden wir die Hintereinanderschaltung T ◦ S und die Parallelschaltung T + S: [T ◦ S](f ) = T (S)(f ), [T + S](f ) = T (f ) + S(f ). Blockdiagramme k¨onnen komplexe Systeme sehr u ¨bersichtlich darstellen: Grafisch stellen wir ein System mit einer Box mit Eingang und Ausgang dar. Der Input f wird vom System in den Output T f abgebildet.
Input x
Output y = T x
T
In Blockdiagrammen wird der Signalfluss gezeigt. Verzweigungen werden mit einem Punkt markiert, kreuzende Linien ohne Punkt beeinflussen einander nicht. Signale k¨onnen durch Addition oder Subtraktion zusammengef¨ uhrt werden. x
x
+ y
x+y
y + y
x
x x +
x
x−y
−
x y
5
Durch Blockdiagramme stellen wir Hintereinanderschaltung und Parallelschaltung folgendermassen dar:
Hintereinander− schaltung
+
Parallel− schaltung
+
Beispiel 1.1.9. Blockdiagramm einer einfachen Regelstrecke:
Störung z Regler
Führungs− größe + u
G
Stell− größe x
Heizung + F
+
Regel− größe y
− Rückkoppelung
Das obige Blockdiagramm beschreibt zum Beispiel die Temperaturregelung in einem Zimmer. Eine Regelgr¨oße y, die Temperatur im Zimmer, soll m¨oglichst genau einer F¨ uhrungsgr¨ oße u folgen (der vorbestimmte Temperaturverlauf, der nicht konstant sein muss, sondern zum Beispiel in der Nacht niedriger sein kann). Die Temperatur wird durch eine Heizung gesteuert. Diese wird durch eine Stellgr¨oße x geregelt (die Einstellung des Heizkessels). Durch schwankende Aussentemperaturen, ¨ Offnen und Schließen von T¨ uren, W¨armeabgabe von Elektroger¨aten und anderem entstehen Einfl¨ usse auf die Temperatur, die wir in einer St¨orgr¨oße z zusammenfassen. Die Heizung und das Zimmer (in einer ungest¨orten idealen Konfiguration) bilden ein System F, das die Stellgr¨oße auf die Zimmertemperatur abbildet. Die St¨ orgr¨ oße wird in unserem einfachen Modell additiv beigemischt. Damit besteht ein offenes (open loop) System, welches durch x gesteuert wird. Um eine automatische Regelung zu schaffen, welche die St¨orungen ausschaltet, richten wir eine R¨ uckkoppelung (feedback) ein: Die Zimmertemperatur wird mit der F¨ uhrungsgr¨oße verglichen. Aus der Differenz wird u ¨ber ein Regelsystem G die Stellgr¨oße errechnet. Nun liegt ein geschlossenes System vor (closed loop), eine Regelung.
6
1.1.4. Kausale, zeitinvariante, lineare Systeme. Definition 1.1.10. Ein System T : L1ω (R, R) → L1ω (R, R) heißt linear, wenn gilt: F¨ ur alle Funktionen f, g ∈ L1ω (R, R) und alle Skalare α, β ∈ R gilt T (αf + βg) = αT f + βT g. Linearit¨at ist eine theoretische Voraussetzung, die die Mathematik ganz entscheidend erleichtert. In der Praxis ist jedes System nichtlinear, zumindest bei starken Auslenkungen zeigen sich die Grenzen des Systems. Bei kleinen Auslenkungen, und vor allem bei technischen Systemen (etwa der Mechanik: schwingende Br¨ ucken, oder Elektronik: Verst¨arkerschaltungen) ist Linearit¨at eine vern¨ unftige Annahme. Als n¨achstes sollen Systeme charakterisiert werden, die ihre Eigenschaften mit der Zeit nicht ¨andern. Nat¨ urlich sind Input und Output Funktionen der Zeit. Jedoch wird von solchen Systemen ein Input, der sp¨ater ankommt, genauso verarbeitet wie einer der fr¨ uher ankommt, nur eben zeitverschoben. Um das bequem aufschreiben zu k¨onnen, f¨ uhren wir den Shiftoperator (Zeitverschiebung) ein: Definition 1.1.11. F¨ ur h ∈ R bezeichnet Sh das System [Sh f ](t) = f (t + h). Die Abbildung Sh heißt auch Shift. Sh f ist die Funktion f , so verschoben, dass alles um h Zeiteinheiten fr¨ uher abl¨auft. Signal um 0.5 Sekunden vorverschoben
Signal
0
−2
−1.5
−1
−0.5
0
0.5
1
1.5
Definition 1.1.12. Ein System T : L1ω (R, R) → L1ω (R, R) heißt autonom oder zeitinvariant, wenn f¨ ur alle h ∈ R und f ∈ L1ω (R, R) gilt: T (Sh f ) = Sh (T )f. Wenn auch in Wirklichkeit alle Systeme ihre Eigenschaften im Lauf der Zeit ¨andern, erwarten wir von vielen Systemen des Alltags, dass sie praktisch zeitinvariant sind. Letztlich kann in der Praxis kein System in die Zukunft sehen. Der Output zur Zeit t kann nur von der Information abh¨angen, die der Input bis zum Zeitpunkt t eingespeist hat:
7
Definition 1.1.13. Ein System T : L1ω (R, R) → L1ω (R, R) heißt kausal, wenn f¨ ur alle t ∈ R und f, g ∈ L1ω (R, R) gilt: Ist f (s) = g(s) f¨ ur fast alle s ≤ t, dann ist auch [T f ](s) = [T g](s) f¨ ur fast alle s ≤ t. (Die Verwendung der Einschr¨ankung “fast alle” ist notwendig, weil wir im Raum L1ω arbeiten. Funktionen dieses Raumes sind ja nur bis auf Gleichheit fast u ¨berall definiert.)
Im Folgenden werden wir uns immer mit linearen, zeitinvarianten, kausalen Systemen besch¨aftigen.
1.2. Faltung.
1.2.1. Definition und Existenz des Faltungsintegrals. uckkommen, f¨ uhren wir den Begriff der Faltung Bevor wir auf lineare Systeme zur¨ ein. Der Zusammenhang mit linearen Systemen wird im n¨achsten Unterabschnitt klar werden. ur fast alle t ∈ R das Integral Satz 1.2.1. Seien f, g ∈ L1ω (R, R). Dann existiert f¨ Z
∞
(f ∗ g)(t) :=
f (τ )g(t − τ ) dτ. −∞
Die Funktion f ∗ g liegt in L1ω (R, R) und es gilt (1.2.1)
kf ∗ gkL1ω ≤ kf kL1ω · kgkL1ω .
Beweis. Die Messbarkeit des Integranden folgt, weil Zeitverschiebungen, Summen und Produkte messbarer Funktionen immer messbar sind. Wir m¨ ussen daher nur zeigen, dass f¨ ur fast alle t ∈ R gilt Z
∞
|f (τ )| |g(t − τ )| dτ < ∞. −∞
Und das folgt, zusammen mit (1.2.1), wenn wir zeigen Z
∞ −∞
Z e−ωt
∞
−∞
|f (τ )| |g(t − τ )| dτ dt = kf kL1ω · kgkL1ω .
Denn wenn das Integral einer positiven Funktion endlich ist, so ist auch die Funktion fast u ¨berall endlich. Nach Fubini darf bei positiven (endlichen und unendlichen) Integralen die Integrationsreihenfolge vertauscht werden, das Integral ist genau dann endlich, wenn auch das vertauschte Integral endlich ist. Beachten Sie den Standardtrick, mit dem die
8
Exponentialfunktion zerlegt wird: Z ∞ Z ∞ −ωt e |f (τ )| |g(t − τ )| dτ dt −∞ −∞ Z ∞Z ∞ = e−ωt |f (τ )| |g(t − τ )| dt dτ −∞ −∞ Z ∞Z ∞ = e−ωτ |f (τ )| e−ω(t−τ ) |g(t − τ )| dt dτ −∞ −∞ Z ∞ Z ∞ −ωτ = e |f (τ )| e−ω(t−τ ) |g(t − τ )| dt dτ −∞ −∞ Z ∞ Z ∞ −ωτ = e e−ωσ |g(σ)| dσ dτ |f (τ )| −∞ −∞ Z ∞ = e−ωτ |f (τ )| kgkL1ω dτ −∞
=
kf (τ )kL1ω kgkL1ω . ¤
Wir k¨onnen daher definieren: Definition 1.2.2. Seien f, g ∈ L1ω (R, R). Die Funktion f ∗ g, definiert durch Z ∞ (f ∗ g)(t) := f (τ )g(t − τ ) dτ, −∞
heißt Faltung (convolution) von f und g.
1.2.2. Grundlegende Eigenschaften der Faltung. Satz 1.2.3. Seien f, g, h ∈ L1ω (R, R), α, β ∈ R. Mit St bezeichnen wir den Shift aus Definition 1.1.11. Es gilt: (αf + βg) ∗ h = αf ∗ h + βg ∗ h Linearit¨ at in der ersten Variablen h ∗ (αf + βg) = αh ∗ f + βh ∗ g Linearit¨ at in der zweiten Variablen f ∗g
= g ∗ f Kommutativit¨ at,
f ∗ (g ∗ h) = (f ∗ g) ∗ h Assoziativit¨ at, f ∗ (St g) = St (f ∗ g) = (St f ) ∗ g. ur das beBeweis. Die Linearit¨at ist eine offensichtliche Folge der Rechenregeln f¨ stimmte Integral. Kommutativit¨at und Assoziativit¨at folgen aus Variablensubstitutionen im Integral: Z ∞ Z ∞ f (τ )g(t − τ ) dτ = f (t − σ)g(σ) dσ, −∞
−∞
9
und
= = = = =
[f ∗ (g ∗ h)](t) Z ∞ f (τ )(g ∗ h)(t − τ ) dτ −∞ Z ∞ Z ∞ f (τ ) g(σ)h(t − τ − σ) dσ dτ −∞ −∞ Z ∞ Z ∞ f (τ ) g(t − τ − σ)h(σ) dσ dτ −∞ −∞ Z ∞Z ∞ f (τ )g(t − σ − τ ) dτ h(σ) dσ −∞ −∞ Z ∞ [f ∗ g](t − σ)h(σ) dσ −∞
= [(f ∗ g) ∗ h](t). Schließlich folgt das Verhalten des Shiftoperators durch Einsetzen: Z ∞ [f ∗ St g](τ ) = f (σ)[St g](τ − σ) dσ −∞ Z ∞ = f (σ)g(τ + t − σ) dσ = [f ∗ g](τ + t) = [St (f ∗ g)](τ ). −∞
¤ Satz 1.2.4. Die Faltung ist eine stetige Abbildung ( L1ω (R, R) × L1ω (R, R) → L1ω (R, R), ∗: (f, g) 7→ f ∗ g. Beweis. Das folgt direkt aus der Normabsch¨atzung (1.2.1) durch ein Standardargument: Seien n¨amlich fn , gn ∈ L1ω Folgen mit Grenzwerten f bzw, g, es gelte also kfn − f kL1ω → 0 und kgn − gkL1ω → 0. Dann gilt kf ∗ g − fn ∗ gn kL1ω = kf ∗ (g − gn ) + (f − fn ) ∗ gn kL1ω ≤ kf ∗ (g − gn )kL1ω + k(f − fn ) ∗ gn kL1ω ≤ kf kL1ω · k(g − gn )kL1ω + k(f − fn )kL1ω · kgn kL1ω → 0. ¤ Bemerkung 1.2.5. Der Raum L1ω (R, R) mit der Faltung bildet eine sogenannte Banachalgebra u ¨ber R, d.h.: 1 (i) (Lω (R, R), +, ·) ist ein Vektorraum u ¨ber R. (ii) (L1ω (R, R), k · kL1ω ) ist ein vollst¨ andiger normierter Vektorraum, ein sogenannter Banachraum. (Folgen von Vektoren, die bez¨ uglich k · kL1ω Cauchyfolgen sind, haben einen Grenzwert.) (iii) (L1ω (R, R), +, ∗) ist ein Ring.
10
(iv) Die Verkn¨ upfung ∗ ist linear in der ersten und der zweiten Variablen. (v) Die Verkn¨ upfung ∗ ist stetig bez¨ uglich der mittels der Norm k · kL1ω eingef¨ uhrten Topologie. Bemerkung 1.2.6. Die Faltung in L1ω (R, R) ist nicht nullteilerfrei. Allerdings gilt: Ist f ∈ L1ω (R, R) so, dass f¨ ur alle g ∈ L1ω (R, R) gilt: f ∗ g = 0, dann ist f = 0. Beweis. Dass es Nullteiler gibt, ist erst mit Hilfe der Fouriertransformation bequem zu beweisen. Sei nun f ∗ g = 0 f¨ ur alle g ∈ L1ω (R, R). Sei γ < ω, sodass die folgende 1 Funktion g in Lω (R, R) liegt: ( 0 falls t < 0, g(t) = γt e falls t ≥ 0. Wir definieren
Z
t
y(t) := [g ∗ f ](t) =
eγ(t−τ ) f (τ ) dτ.
−∞
Nach Voraussetzung ist y = 0. Andererseits erhalten wir durch Differenzieren: Z t d y(t) = f (t) + γeγ(t−τ ) f (τ ) dτ = f (t) + γy(t). dt −∞ Aus y = 0 folgt nun sofort f = 0.
¤
1.2.3. Faltung und Ableitung. Definition 1.2.7. Die Sprung- oder Heavisidefunktion s : R → R ist definiert durch ( 0 falls t < 0, s(t) = 1 falls t ≥ 0. Mit Hilfe dieser Funktion l¨ asst sich das Integral einer Funktion als Faltung schreiben: Lemma 1.2.8. Sei f ∈ L1ω (R, R) mit ω > 0 und s die Sprungfunktion. Es ist Z t [f ∗ s](t) = f (τ ) dτ. −∞
L1ω (R, R),
Beweis. Da ω > 0, liegt auch s ∈ sodass die Faltung existiert. Nun muss nur in die Definition der Faltung eingesetzt werden: Z ∞ Z t [f ∗ s](t) = f (τ )s(t − τ ) dτ = f (τ ) dτ. −∞
∞
¤ Satz 1.2.9. Seien f, g, h ∈ L1ω (R, R) mit ω > 0. Sei s die Sprungfunktion. (i) Es gilt: h ∈ Wω1,1 (R, R) und g = h0 fast u ¨berall genau dann wenn h = s ∗ g. (ii) In diesem Fall ist auch h ∗ f ∈ Wω1,1 (R, R) und es gilt [h ∗ f ]0 = h ∗ g fast u ¨berall.
11
Beweis. Ist h = g∗s, so wissen wir bereits aus Lemma 1.2.8, dass h das unbestimmte Integral der L1ω -Funktion g ist. Sei umgekehrt f¨ ur fast alle t Z t h(t) = g(τ ) dτ + C 0
mit einer geeigneten Konstante C. Weil ω > 0, muss es eine Folge tn → −∞ geben, f¨ ur die die obige Gleichung gilt, und f¨ ur die h(tn ) → 0. Es folgt Z tn Z 0 0 = lim g(τ ) dτ + C = − g(τ ) dτ + C. n→∞
0
−∞
Daraus erhalten wir C und damit Z Z t g(τ ) dτ + h(t) = 0
0
g(τ ) dτ = [g ∗ s](t). −∞
Damit ist (i) gezeigt. Nun sei h = g ∗ s. Dann ist wegen der Assoziativit¨at der Faltung h ∗ f = (s ∗ g) ∗ f = s ∗ (g ∗ f ). Daraus folgt aber wiederum (h ∗ f )0 = g ∗ f im Sinne von Wω1,1 . ¤ Die Faltung erbt also die Glattheit der Faktoren. Es gen¨ ugt, dass ein Faktor differenzierbar ist, damit das Faltungsprodukt differenzierbar ist. Diese Eigenschaft kann man ausn¨ utzen, um Funktionen durch glatte Funktionen anzun¨ahern. Oft ist es leichter, eine bestimmte Eigenschaft zun¨achst f¨ ur beliebig oft differenzierbare Funktionen zu beweisen, und dann mit einem Approximationsargument den Beweis auf alle stetigen Funktionen zu erweitern. F¨ ur solche Zwecke verwendet man den folgenden Trick (eine sogenannte Regularisierung): Satz 1.2.10. Sei ρ : R → R eine beliebig oft differenzierbare Funktion mit folgenden Eigenschaften ρ(t) ≥ 0
f¨ ur alle t ∈ R,
ρ(t) = 0 f¨ ur alle t ∈ R \ [−1, 1], Z 1 ρ(t) dt = 1. −1
Sei f :∈ Cub (R, R), aber nicht unbedingt differenzierbar. F¨ ur ² > 0 definieren wir 1 t ρ² (t) = ρ( ), ² ² f² = ρ² ∗ f. Dann ist f² beliebig oft differenzierbar, und f² (t) → f (t) gleichm¨ aßig f¨ ur t ∈ R. Beweis. Die Existenz des Faltungsintegrals folgt, da Z ∞ Z ∞ ρ² (τ )|f (t − τ )| dτ ≤ kf k∞ ρ² (τ ) dτ = kf k∞ < ∞. −∞
−∞
Offensichtlich ist ρ² beliebig oft differenzierbar. Es folgt f²0 = ρ0² ∗ f und durch Induktion µ n ¶ dn d f = ρ² ∗ f. ² n dt dtn Damit ist f² beliebig oft differenzierbar. Wir zeigen nun die gleichm¨aßige Konvergenz. Sei η > 0 beliebig. Wir w¨ahlen ² > 0 so klein, dass |f (t) − f (s)| < η
falls |t − s| < ².
12
Durch Variablensubstitution erh¨alt man sofort Z ∞ ρ² (τ ) dτ = 1. −∞
Sei nun t ∈ R beliebig und ² wie oben gew¨ahlt. |f² (t) − f (t)| ¯Z ∞ ¯ ¯ ¯ = ¯¯ ρ² (τ )f (t − τ ) dτ − f (t)¯¯ ¯ ¯Z−∞ ¯ ¯ ∞ ¯ ρ² (τ )(f (t − τ ) − f (t)) dτ ¯¯ =¯ ¯ ¯Z−∞ ¯ ² ¯ ¯ ρ² (τ )(f (t − τ ) − f (t)) dτ ¯¯ =¯ −² Z ² ≤ ρ² (τ )|f (t − τ ) − f (t)| dτ −² Z ² ≤ ρ² (τ )η dτ −²
=η. ¤ Die Grafik zeigt eine geeignete Funktion ρ und ρ² f¨ ur ² = 0.25 und ² = 0.1. Je kleiner ², desto enger konzentriert sich die Kurve um t = 0, und desto h¨oher ist das Maximum ausgepr¨agt. Die Fl¨ache unter der Kurve bleibt immer 1.
10
8
ε=0.1 6
ε=0.25 4
ε=1 2
0
−1
−0.75
−0.5
−0.25
0
0.25
0.5
0.75
1
Bemerkung 1.2.11. Satz 1.2.10 l¨ asst sich auch f¨ ur viele andere Funktionenr¨ aume beweisen. Ist zum Beispiel f nicht stetig, aber daf¨ ur in f ∈ L1ω (R, R), so konvergiert f² → f in L1ω (R, R).
13
1.2.4. Faltung auf der Halbgeraden. Sind f, g nur auf der positiven Halbgeraden [0, ∞) definiert, so kann man die Faltung einf¨ uhren, indem man f, g durch Null auf die negative Halbgerade fortsetzt: ( ( f (t) falls t ≥ 0, g(t) falls t ≥ 0, f1 (t) = g1 (t) = 0 falls t < 0; 0 falls t < 0. Dann ist
Z
∞
f1 (t − τ )g1 (τ ) dτ.
[f1 ∗ g1 ](t) = −∞
Der Integrand ist aber Null, wenn entweder τ > t oder τ < 0. Daher ergibt sich (R t f (t − τ )g(τ ) dτ falls t ≥ 0, 0 [f1 ∗ g1 ](t) = 0 falls t < 0. Wir u ur die Definition der Faltung von f und g. ¨bernehmen das f¨ Definition 1.2.12. Seien f, g ∈ L1ω ([0, ∞), R). Wir definieren die Faltung f¨ ur t ∈ [0, ∞): Z t [f ∗ g](t) := f (t − τ )g(τ ) dτ. 0
Da dies ein Sonderfall der Faltung auf der ganzen Geraden ist, gelten dieselben Rechenregeln: Satz 1.2.13. Die Faltung ist stetig als Abbildung L1ω ([0, ∞), R) × L1ω ([0, ∞), R) → L1ω ([0, ∞), R), linear in beiden Variablen, kommutativ und assoziativ. Beweis. Direkte Anwendung von Satz 1.2.3.
¤
Vorsicht muss man bei Resultaten u ¨ber Differenzierbarkeit walten lassen. Ist n¨amlich f : [0, ∞) → R differenzierbar, aber f (0) 6= 0, so ist die Fortsetzung f1 von f (wie oben) nicht mehr differenzierbar! Es gilt Satz 1.2.14. Seien f, g, h ∈ L1ω ([0, ∞), R) mit g = h0 im Sinne von Wω1,1 , also Z t h(t) = h(0) + g(τ ) dτ. 0
Dann ist d [f ∗ h](t) = f (t)h(0) + dt
Z
t
f (t − τ )g(τ ) dτ 0
Beweis. Sei s die Sprungfunktion. Es ist also h = h(0)s + g ∗ s. Dann ist f ∗ h = h(0)f ∗ s + f ∗ g ∗ s = (h(0)f + f ∗ g) ∗ s. Das heißt, f ∗ h ist eine Stammfunktion von h(0)f + f ∗ g.
¤
Bemerkung 1.2.15. Sei h ∈ Wω2,1 ([0, ∞), R), sei f ∈ L1ω ([0, ∞), R). Es ist f ∗ g nur dann zweimal differenzierbar, wenn entweder h(0) = 0 oder f differenzierbar ist. Beweis. Es ist [f ∗ h]0 = h(0)f + f ∗ (h0 ). Der zweite Term ist noch einmal differenzierbar. Daher ist [f ∗ h]0 nur dann differenzierbar, wenn h(0)f differenzierbar ist. ¤
14
Ein weiterer Unterschied zur Faltung auf der ganzen Geraden liegt im folgenden ber¨ uhmten Satz Satz 1.2.16 (Satz von Titchmarsh). Der Ring (L1ω ([0, ∞), R), +, ∗) ist nullteilerfrei. Beweis. Wir verschieben den Beweis auf sp¨ater, weil er nach Einf¨ uhrung der Laplacetransformation viel leichter gelingt. In Unterabschnitt 2.6 werden wir den Satz noch einmal als Satz 2.6.12 formulieren und beweisen. ¤ 1.3. Beschreibung eines Systems im Zeitbereich. 1.3.1. Sprungantwort und Impulsantwort. Um ein lineares, zeitinvariantes System zu charakterisieren, betrachtet man seine Reaktion auf m¨oglichst einfache Inputsignale. In diesem Abschnitt geben wir als Input die Sprungfunktion oder kurze Rechteckimpulse vor. Die Systemantwort auf die Sprungfunktion heißt Sprungantwort. Kompliziertere Inputfunktionen werden dann durch Linearkombinationen von zeitverschobenen Sprungfunktionen angen¨ahert. Da das System linear (und nach Definition eines Systems auch stetig) ist, wird der Output des Systems durch Linearkombinationen der verschobenen Sprungantwort angen¨ahert. In sp¨ateren Kapiteln werden wir die Reaktion des Systems auf Sinusfunktionen betrachten und kompliziertere Funktionen in Sinussignale zerlegen. Die Betrachtungsweise im Rahmen von Sinussignalen nennt man Analyse im Frequenzbereich. Im Gegensatz dazu betrachten wir vorl¨aufig das System im Zeitbereich. Definition 1.3.1. Sei T : L1ω → L1ω ein lineares zeitinvariantes System, und sei s die Sprungfunktion. Dann heißt die Systemantwort h = T s die Sprungantwort (step response) des Systems. Ist h ∈ Wω1,1 (R, R), so heißt g = h0 die Impulsantwort (impulse response) des Systems. Die Sprungantwort ist also jene Outputfunktion, die entsteht, wenn bis zum Zeitpunkt t = 0 kein Input anliegt, und der Input zum Zeitpunkt t = 0 auf eins geschaltet wird und dort bleibt. 1.3.2. Berechnung der Systemantwort durch Faltung. Wir wollen nun an Hand der Sprungantwort die Reaktion eines Systems auf beliebige Signale bestimmen. Wir beschr¨anken uns auf Systeme, die eine Impulsantwort besitzen. Wir beginnen mit Treppenfunktionen. Lemma 1.3.2. Sei g die Impulsantwort eines linearen, zeitinvarianten Systems T . Seien t0 < t1 < · · · < tn , und sei die Inputfunktion x eine Treppenfunktion γ−1 := 0 falls t < t0 , x(t) = γi falls t ∈ [ti , ti+1 ), γn := 0 falls t > tn . Dann errechnet sich die Systemantwort y = T x nach der Formel Z ∞ y(t) = g(t − τ )x(τ ) dτ = (g ∗ x)(t). −∞
15
¨ Beweis. Wir zerlegen die Treppenfunktion x in eine Uberlagerung von zeitverschobenen Sprungfunktionen: An der Stelle ti erfolgt jeweils ein Sprung von γi−1 auf γi . Mit s bezeichnen wir die Sprungfunktion. Mit Hilfe des Shiftoperators St aus Definition 1.1.11 verschieben wir die Sprungfunktion jeweils so, dass der Sprung an der Stelle ti statt 0 liegt: n X x= (γi − γi−1 )S−ti s. i=0
Sei nun h die Sprungantwort des Systems. Da das System linear und zeitinvariant ist, folgt n n X X y= (γi − γi−1 )S−ti T s = (γi − γi−1 )S−ti h. i=0
i=0
Wir setzen ein und ordnen die Summen um. Wir verwenden auch, dass γ−1 = γn = 0, sodass wir diese Terme aus den Summen weglassen k¨onnen. Ausserdem verwenden wir x(t) = γi auf [ti , ti+1 ). y(t)
=
n−1 X
γi h(t − ti ) −
i=0
=
n−1 X
=
γi [h(t − ti ) − h(t − ti+1 )] Z
t−ti
γi
g(τ ) dτ t−ti+1
i=0
=
γi−1 h(t − ti )
i=1
i=0 n−1 X
n X
n−1 X Z ti+1
g(t − τ )x(τ ) dτ
i=0 ti Z ∞
=
g(t − τ )x(τ ) dτ. −∞
¤ Satz 1.3.3. Sei g die Impulsantwort eines linearen, zeitinvarianten Systems T . Sei die Inputfunktion x ∈ L1ω (R, R). Dann berechnet sich der Output des Systems mit Hilfe der Faltung: T x = g ∗ x. Beweis. Wir approximieren x in L1ω (R, R) durch eine Folge von Treppenfunktionen xn . F¨ ur diese gilt nach Lemma 1.3.2: T xn = g ∗ xn . Da einerseits das System (nach Definition) und andererseits die Faltung (nach Satz 1.2.4) stetig sind, gilt T x = lim T xn = lim g ∗ xn = g ∗ x. n→∞
n→∞
¤ Bemerkung 1.3.4. Sei g die Impulsantwort eines linearen, zeitinvarianten Systems T . Das System ist genau dann kausal, wenn f¨ ur fast alle t < 0 gilt g(t) = 0.
16
Beweis. Sei zun¨achst T kausal. Da sich die Heaviside-Funktion s bis zum Zeitpunkt t = 0 nicht von der Nullfunktion unterscheidet, muss bis zu diesem Zeitpunkt auch die Systemantwort Null sein: h(t) = 0 f¨ ur fast alle t < 0. Differenzieren ergibt g(t) = 0 fast u ¨berall auf (−∞, 0). Nun sei umgekehrt g(t) = 0 fast u ¨berall auf (−∞, 0). Sei x = 0 fast u ¨berall auf (−∞, T ]. Wir m¨ ussen zeigen, dass auch [T x](t) = 0 f¨ ur fast alle t < T gilt. F¨ ur fast alle t ∈ R gilt aber Z ∞ [T x](t) = [g ∗ x](t) = g(τ )x(1 − τ ) dτ. −∞
Ist nun t < T , so ist entweder τ < 0, dann ist g(τ ) = 0, oder t − τ < T , dann ist x(t − τ ) = 0. In jedem Fall ist der Integrand gleich Null, sodass [g ∗ x](t) = 0 gilt. ¤
Satz 1.3.5. Seien f, g ∈ L1ω (R, R) die Impulsantworten zweier linearen, zeitinvarianten Systeme F, G. Die Impulsantwort des hintereinandergeschalteten Systems G ◦ F ist dann g ∗ f Beweis. Sei u = [G ◦F]s die Impulsantwort des hintereinandergeschalteten Systems. Sei x ∈ L1ω (R, R) beliebig. Es ist u = [G ◦ F ]x = G[Fx] = g ∗ (f ∗ x) = (g ∗ f ) ∗ x. Da dies f¨ ur alle x ∈ L1ω (R, R) gilt, ist u = g ∗ f .
¤
Anmerkung: Wenn die Sprungantwort h nicht differenzierbar ist, also keine Impulsantwort existiert, muss die Systemantwort mit Hilfe von h charakterisiert werden. Dies f¨ uhrt auf den Begriff des Stieltjes-Integrals. Modifizieren wir den Beweis des Lemmas 1.3.2 und berechnen die Systemantwort auf eine Treppenfunktion x: [T x](t) = =
n X i=1 n X
γi [h(t − ti ) − h(t − ti+1 )] x(t − τi )[h(ti+1 ) − h(ti )] mit τi ∈ [ti , ti+1 ].
i=1
Hier war x eine Treppenfunktion. Ist x stetig und h zwar nicht differenzierbar, aber immerhin von beschr¨ankter Variation, so konvergiert der obige Ausdruck, wenn man immer feinere Intervalleinteilungen nimmt, gegen einen Grenzwert, das sogenannte Riemann-Stieltjes-Integral Z ∞ x(t − τ ) dh(τ ). −∞
17
1.3.3. Der Dirac’sche Delta-Impuls. Bemerkung 1.3.6. Sei g die Impulsantwort eines linearen, zeitinvarianten Systems T . Wir betrachten f¨ ur kleine ² > 0 die Inputfunktionen 0 falls t < 0, x² (t) = 1² falls t ∈ [0, ²], 0 falls t > ². Dann gilt f¨ ur fast alle t ∈ R: g(t) = lim [T x² ](t). ²→0+
Beweis. Nach Lemma 1.3.2 ist Z ∞ Z [T x² ](t) = g(τ )x² (t − τ ) dτ = −∞
t
t−²
1 1 g(τ ) dτ = [h(t) − h(t − ²)]. ² ²
¨ Uberall, wo h differenzierbar ist und die Ableitung g hat, gilt also im Grenzwert [T x² ](t) → g(t). ¤
10
Die Flächen unter den Rechteckkurven sind immer gleich 1 8
6
4
2
0
−0.5
0
0.5
1
1.5
Die Funktionen x² aus Bemerkung 1.3.6 sind kurze Impulse, deren Integral jeweils exakt 1 ergibt. Stellen wir uns den Grenzfall eines Impulses vor, der nur einen Augenblick andauert, jedoch so stark ist, dass sein Integral u ¨ber das Zeitintervall seiner Dauer 1 ergibt. Nat¨ urlich gibt es keine solche Funktion: Jede integrierbare Funktion hat bei Integration u urlich das be¨ber ein Intervall der L¨ange Null nat¨ stimmte Integral Null. Unser unendlich kurzer Impuls, existiert also im Augenblick erst als eine Fiktion, die sich nur in Ann¨aherung realisieren l¨asst. Die Impulsantwort eines Systems ist die Reaktion des Systems auf einen solchen Impuls. ur Definition 1.3.7. Dies ist keine mathematische Definition, sondern ein Behelf f¨ die Vorstellung: Der Diracsche Delta-Impuls δ ist der Grenzfall eines unendlich kurzen Impulses, der nur bei t = 0 von Null verschieden ist, und dessen Integral 1 ergibt.
18
Es gibt zwei Wege, aus dieser verschwommenen Intuition Objekt einen klaren mathematischen Begriff zu destillieren. Wir werden unten einen rein algebraischen Weg beschreiten, sodass man in formalen Rechnungen den Delta-Impuls in Verbindung mit der Faltung verwenden kann. Ein weniger abstrakter Weg kommt, sobald wir den Begriff der Funktion auf allgemeinere Objekte, sogenannte Distributionen, verallgemeinern k¨onnen. Darauf kommen wir erst in einem sp¨ateren Kapitel zur¨ uck.
Es ist also, noch immer heuristisch und intuitiv betrachtet, die Impulsantwort die Systemantwort auf den δ-Impuls. Wenn der Kalk¨ ul der Faltung nach wie vor G¨ ultigkeit haben soll, m¨ usste dann gelten g = g ∗ δ. Das ist nat¨ urlich zun¨achst gar kein definierter Ausdruck, weil ja δ noch nicht definiert ist. Im Gegenteil, wir verwenden diese Eigenschaft, um δ zu definieren: Definition 1.3.8. Wir erweitern den Ring L1ω (R, R) durch Annexion einer Eins zum Ring ª © Vω1 (R, R) = (α, f ) | α ∈ R, f ∈ L1ω (R, R) . F¨ ur (αi , fi ) ∈ Vω1 (R, R) und γ ∈ R werden die Operationen ·, +, ∗ folgendermaßen erkl¨ art: (α1 , f1 ) + (α2 , f2 ) γ · (α1 , f1 ) (α1 , f1 ) ∗ (α2 , f2 ) k(α1 , f1 )kVω1
= (α1 + α2 , f1 + f2 ), = (γα1 , γf1 ), = (α1 α2 , α1 f2 + α2 f1 + f1 ∗ f2 ), = |α1 | + kf1 kL1ω .
Wir definieren δ = (1, 0). Damit kann man jedes Element in Vω1 (R, R) auch in der folgenden Form anschreiben: (α, f ) = αδ + f. Es ist leicht nachzurechnen, dass sich auf diese Weise wieder eine Banachalgebra ergibt. δ ist dabei das Einselement der Faltung. Ebenso l¨asst sich der Delta-Impuls als Eins der Faltung zum Ring L1ω ([0, ∞), R) annektieren. In diesem Fall ergibt sich ein nullteilerfreier kommutativer Ring mit Eins.
1.3.4. Anwendung des Kalk¨ uls auf einen einfachen Regelkreis. Wir greifen nun noch einmal das Beispiel 1.1.9 eines einfachen Regelkreises auf. ¨ Wir werden dabei sehen, was mit unseren bisherigen Uberlegungen gewonnen ist, und welche Arbeit noch zu leisten ist.
19
Störung z Regler
Führungs− größe + u
G
Stell− größe x
Heizung + F
+
Regel− größe y
− Rückkoppelung
Die Systeme, Signale und ihre Bedeutung in diesem Beispiel waren F: Heizungsanlage und Zimmer, G: Regler, y: Regelgr¨oße: Zimmertemperatur, u: F¨ uhrungsgr¨oße: gew¨ unschter Verlauf der Zimmertemperatur, x: Stellgr¨oße: Einstellung der Heizungsanlage, z: St¨orgr¨oße: Einfl¨ usse von außen. In typischen Problemen der Regeltechnik ist das System F aus technischen Gr¨ unden weitgehend vorgegeben, w¨ahrend der Regler G zu entwerfen ist. Gew¨ unscht ist, dass die Regelgr¨oße m¨oglichst genau der F¨ uhrungsgr¨ oße folgt, und der Einfluss der St¨orgr¨oße m¨oglichst gering gehalten wird. Wir treffen zun¨achst eine sehr grobe Vereinfachung und nehmen an, dass die beiden Systeme einfach lineare Verst¨ arker sind. Das heißt Fx = F x Gy = Gy mit geeigneten positiven Konstanten F, G. Das System l¨ asst sich dann bequem als algebraisches lineares Gleichungssystem aufschreiben y = Fx + z x = G(u − y) (Algebraisch will hier bedeuten: Keine Integrale und Ableitungen.) Es folgt durch direkte Rechnung FG 1 (1.3.1) y= u+ z. 1 + FG 1 + FG F¨ ur G → ∞ w¨ urden wir die ideale Regelung erhalten: y = u. Das w¨ urde nahe legen, als Regler einfach einen Verst¨ arker mit m¨ oglichst hohem Verst¨arkungsfaktor einzubauen. In der Praxis w¨ urde diese Regelung scheitern. Das System F ist kein reiner Verst¨ arker, sondern beinhaltet Verz¨ ogerungen. Wird die Stellgr¨oße aufgedreht, muss erst der Kessel st¨ arker angeheizt werden, dass Wasser durch die Radiatoren fließen und die Zimmerluft erw¨ armt werden. Die Reaktion des Systems auf die neue Einstellung wird erst langsam sp¨ urbar. Ein allzu sensibler
20
Regler h¨atte folgende Wirkung: Ist das Zimmer zu kalt, wird die Heizung aufgedreht. Da der Effekt noch nicht sofort sp¨ urbar ist, heizt der Kessel zun¨achst auf h¨ochster Stufe weiter. Endlich erw¨armt sich die Zimmerluft, und der Regler stellt den Kessel ab. Das Heißwasser in den Rohren heizt aber das Zimmer zun¨achst weiter auf, und obwohl der Kessel v¨ollig auf Null gedreht ist, heizt sich das Zimmer noch mehr auf. Sp¨ater sinkt die Temperatur. Wenn die Temperatur auf das Soll-Niveau abgesunken ist, ist der Kessel kalt und muss erst wieder anheizen. Die Temperatur sinkt inzwischen unter das Soll. Inzwischen beginnt sich der Kessel zu erw¨armen. Der Zyklus beginnt von Neuem. Es entsteht eine Temperaturschwingung. uckkoppelung bei Systemen Bemerkung 1.3.9. Regler mit allzu empfindlicher R¨ mit inh¨ arenten Verz¨ ogerungen stabilisieren nicht, sondern erzeugen im Gegenteil Schwingungen, die sich aufschaukeln. Es ist daher notwendig, beim Reglerentwurf die Ansprechgeschwindigkeit der Systeme einzukalkulieren. Die N¨aherung, ein System einfach als Verst¨arker aufzufassen, ist oft zu grob. Betrachten wir nun F und G als lineare kausale zeitinvariante Systeme mit Impulsantworten f und g. Wir erhalten dann y =f ∗x+z x = g ∗ (u − y) Es folgt durch direkte Rechnung (1.3.2)
y+f ∗g∗y =f ∗g∗u+z
Nehmen wir an, dass bis zum Zeitpunkt t = 0 alle Gr¨oßen auf Null standen. Betrachten wir die rechte Seite als bekannte Funktion h und benennen wir f ∗ g = a, so erhalten wir f¨ ur y eine Volterrasche Integralgleichung: Definition 1.3.10. Eine Volterrasche Integralgleichung setzt eine unbekannte Funktion y in Beziehung mit einer bekannten Funktion h und der Faltung von y mit einem bekannten Kern: Z t y(t) + a(t − τ )y(τ ) dτ = h(t). 0
Eine Volterrasche Integrodifferentialgleichungen f¨ ur y hat die Form Z t y 0 (t) = a(t − τ )y(τ ) dτ + h(t). 0
Typischerweise wird zu einer Volterraschen Integrodifferentialgleichung eine Anfangsbedingung gegeben: y(0) = y0 . Bemerkung 1.3.11. Die Analyse von linearen Regelsystemen im Zeitbereich f¨ uhrt auf Volterrasche Integral- und Integrodifferentialgleichungen. W¨ahrend der Faltungsformalismus erlaubt, solche Gleichungen sehr einfach anzuschreiben, bleibt die Frage nach der rechnerischen L¨osung von Volterragleichungen offen. Wir werden sehen, dass mit der Einf¨ uhrung der Laplacetransformation lineare Integral- und Differentialgleichungen sich auf algebraische Gleichungen zur¨ uckf¨ uhren lassen. Das ist einer der Vorteile der Frequenzbereichsmethoden.
21
2. Laplacetransformation ¨ 2.1. Ubertragungsfunktion linearer Systeme. 2.1.1. Amplitude und Phase. In der Regelungstechnik spielen die komplexen Zahlen eine Schl¨ usselrolle, weil man mit der komplexen Exponentialfunktion sowohl exponentielles Wachstum bzw. Abklingen als auch Schwingungsph¨anonmene gemeinsam erfassen kann: e(r+iω)t = ert [cos(ωt) + i sin(ωt)]. Wir sehen hier den Verlauf des Realteils von <e(r+iω)t+(R+iφ) = Aert cos(ωt + φ) (mit A = eR ).
Phasenvorlauf φ/ω
Amplidude A 0
Periode T
0
Durch folgende Parameter wird die Kurve beschrieben: r bestimmt das exponentielle Anwachsen oder Abklingen. F¨ ur r = 0 hat man eine periodische Sinusschwingung. Bei r > 0 schaukelt sich die Schwingung exponentiell auf, bei r < 0 klingt sie ab. A , die Amplitude, gibt die St¨arke der Auslenkung an. Zwischen den beiden Einh¨ ullenden ±Aert pendelt die Schwingung hin und her. ω heißt Kreisfrequenz. F¨ ur ω = 0 erh¨alt man keine Schwingung, sondern eine Exponentialkurve. Einer Zeitstrecke t entspricht ein Winkel ωt im Argument der Cosinusschwingung. ω wird besser mit den folgenden Parametern umschrieben: T , die Periode, ist die Zeit, in der die Schwingung einen vollen Zyklus durchl¨auft. Da einem vollen Zyklus ein Winkel von 2π entspricht, gilt ωT = 2π. f , die Frequenz, gibt an, wieviele Perioden in einer Zeiteinheit durchlaufen werden. Es gilt f = 1/T und daher ω = 2πf . φ ist der Winkel, um den die Kurve einer Cosinusschwingung vorausl¨auft. Addiert man zu φ ganzzahlige Vielfache von 2π, so erh¨alt man dieselbe Kurve.
22
¨ 2.1.2. Ubertragungsfunktion eines linearen Systems. Satz 2.1.1. Sei F : L1ω (R, C) → L1ω (R, C) ein lineares, kausales, zeitinvariantes System mit Impulsantwort g. Sei x(t) = eλt mit <(λ) > ω. Dann ist (T x)(t) = G(λ)eλt mit Z ∞ G(λ) = e−λt g(t) dt. 0
Beweis. Streng genommen m¨ ussen wir eine Frage des Definitionsbereiches exakt machen: Die Funktion eλt ist n¨amlich kein Element von L1ω (R, C). Jedoch ist f¨ ur Rt jedes t ∈ R das Integral −∞ e−ωs |eλs | ds < ∞. Da das System kausal ist, kommt es bis zum Zeitpunkt T nur auf die Werte des Inputs auf (−∞, T ] an. Wir k¨onnen also als Systemantwort auf dem Intervall (−∞, T ] die Antwort auf das Inputsignal ( eλt falls t ≤ T, x(t) = 0 fallst > T, betrachten. Dann ist x ∈ L1ω (R, C). Das Outputsignal erhalten wir durch Faltung mit der Impulsantwort. Da das System kausal ist, ist g(t) = 0 f¨ ur negative t. Damit erhalten wir den Output y(t): Z ∞ Z ∞ y(t) = g(s)eλ(t−s) ds = eλt e−λs g(s) ds. 0
0
¤
Definition 2.1.2. Sei F : L1ω (R, C) → L1ω (R, C) ein lineares, kausales, zeitinvariantes System mit Impulsantwort g. Die Funktion ( {λ ∈ C | <(λ) > ω} → C, R∞ G: λ 7→ 0 e−λt g(t) dt ¨ heißt die Ubertragungsfunktion von F. ¨ Wir beschreiben die Ubertragungsfunktion durch Betrag und Argument: A(λ) = |G(λ)|
Amplitudenverst¨ arkung,
φ(λ) = arg(G(λ)) (Wir werden sp¨ater das Integral von g bezeichnen.)
Phasenverschiebung.
R∞ 0
e−λt g(t) dt als die Laplacetransformation
Die folgende Abbildung zeigt die Wirkung des linearen, kausalen, zeitinvarianten Systems auf das Inputsignal eλt mit λ = r + iω. Das Outputsignal ist A(λ)eiφ(λ) e(r+iω)t , damit wird das Inputsignal um den Faktor A(λ) verst¨arkt, und die Phase um den Winkel φ(λ) vorverschoben.
23
15 Input ertcos(ω t)
10 Periode T=2π/ω=1/f
Verstärkung A
5
Output Aertcos(ω t + φ)
0
Der Vergleich der Einhüllenden zeigt die Verstärkung
−5
Phasenvorlauf τ=φ/ω
−10
−15
−2
0
2
4
6
8
Bemerkung 2.1.3. Es ist kein Widerspruch zur Kausalit¨ at, dass die Phase vorverschoben werden kann. Es handelt sich ja um einen seit −∞ eingespielten Schwingungsvorgang. Auch ist ein Phasenvorlauf um φ genau dasselbe wie ein Phasennachlauf um 2π − φ. Die Verst¨ arkung gibt man auch gerne auf der logarithmischen Dezibel-Skala an: arkungsfaktor A entsprechen auf der Dezibel-Skala Definition 2.1.4. Einem Verst¨ der Wert von 20 log10 (A) dB. Damit entspricht einer Verst¨ arkung um 10k je 20k dB. Ein Wert von 6 dB entspricht einer Verst¨ arkung von 2. Negative dB-Werte entsprechen Verst¨ arkungsfaktoren, die kleiner als 1 sind. Beispiel 2.1.5. Ein Stereoverst¨ arker hat einen Rauschspannungsabstand von 80dB. Bei Vollleistung liefert der Verst¨ arker eine Spannung von 20V an die Lautsprecher. Wie stark ist die Spannung des Rauschsignals? L¨ osung: Der Rauschabstand gibt das Spannungsverh¨ altnis vom Rauschsignal zum st¨ arksten m¨ oglichen Nutzsignal an. Da dies 80 dB sind, ist das Verh¨ altnis 10−4 . Das Rauschsignal hat eine Spannung von 2mV. Satz 2.1.6. Seien Tk f¨ ur k = 1, 2 zwei lineare, zeitinvariante, kausale Systeme mit ¨ Ubertragungsfunktionen Gk (λ). Bei Hintereinanderschaltung ergibt sich ein System ¨ mit Ubertragungsfunktion G(λ) = G1 (λ)G2 (λ). Die Amplituden multiplizieren sich bei Hintereinanderschaltung, ihre dB-Werte und die Phasenverschiebungen addieren sich.
24
Beweis. Wir betrachten die Reaktion des hintereinandergeschalteten Systems auf das Inputsignal x(t) = eλt : [T2 ◦ T1 ](eλt ) = T2 [T1 (eλt )] = T2 (G1 (λ)eλt ) = G1 (λ) · T2 (e−λt ) = G1 (λ)G2 (λ)e−λt . ¨ Also multiplizieren sich die Ubertragungsfunktionen. Daher multiplizieren sich auch ihre Betr¨age, und ihre Argumente addieren sich. ¤ ¨ Satz 2.1.6 zeigt, warum es viel bequemer ist, Systeme mit ihren Ubertragungsfunktionen zu charakterisieren als mit ihren Impulsantworten. Bei Hintereinanderschaltung werden die Impulsantworten gefaltet, eine relativ komplizierte Operation. ¨ Die Ubertragungsfunktionen werden einfach multipliziert. 2.1.3. Bode-Diagramm. ¨ F¨ ur rein imagin¨are λ = iω gibt die Ubertragungsfunktion G(iω) an, wie das System auf eine Sinusschwingung reagiert. Die Amplitude der Schwingung wird um den Faktor A(iω) verst¨arkt, die Phase um den Winkel φ(iω) vorverschoben. ¨ Eine M¨oglichkeit, das System zu charakterisieren, ist der Verlauf der Ubertragungsfunktion f¨ ur λ = iω: ¨ eines linearen, kausalen, zeitinDefinition 2.1.7. Sei G die Ubertragungsfunktion varianten Systems. Das Bode-Diagramm von G besteht aus zwei Kurven. In beiden wird waagrecht ω auf einer logarithmischen Skala aufgetragen. Senkrecht werden einmal das dB-Maß der Verst¨ arkung, also 20 log10 A(iω), im anderen Diagramm die Phasenverschiebung φ(iω) aufgetragen. ¨ Beispiel 2.1.8. Uber einen Widerstand R wird ein Kondensator aufgeladen.
x
y
Als Input des Systems betrachten wir die Spannung, die insgesamt anliegt, als Output die Spannung am Kondensator. Ist der Kondensator zu Beginn vollst¨ andig entladen, und legt man ab Zeitpunkt t = 0 eine konstante Gleichspannung von x(t) = 1 an, n¨ ahert sich die Spannung am Kondensator exponentiell den angelegten 1V: y(t) = 1 − e−t/τ . Dabei ist τ = RC die sogenannte Zeitkonstante des RC-Glieds. Zeichnen Sie ein Bode-Diagramm des Systems (bei τ = 0.5), und interpretieren Sie es.
25
L¨ osung: Wir haben also die Antwort des Systems auf die Sprungfunktion gegeben, die Sprungantwort. Die Impulsantwort erhalten wir durch Ableitung: d 1 (1 − e−t/τ ) = e−t/τ . dt τ
g(t) = ¨ Die Ubertragungsfunktion ist Z
∞
G(λ) = 0
1 1 e−λt e−t/τ dt = . τ 1 + λτ
F¨ ur λ = iω erhalten wir damit ¯ ¯ ¯ ¯ 1 ¯= √ 1 A(iω) = ¯¯ , 1 + iωτ ¯ 1 + ω2 τ 2 µ ¶ 1 φ(iω) = arg = − arctan(ωτ ). 1 + iωτ Also gilt folgende Tabelle: ω=0 A(iω) 1 dB 0 φ(iω) 0
ω =√1/τ 1/ 2 −3 −π/4
ω→∞ ' 1/(ωτ ) ' −20(log10 (ω) + log10 (τ )) ' −π/2
Insbesondere haben wir f¨ ur den Amplitudengang in der dB-Skala die Asymptoten: dB=0 bei log(ω) → −∞ und eine Asynmptote f¨ ur ω → ∞, die um jede Dekade (Verzehnfachung von ω) um 20 dB f¨allt. Bei der Kreisfrequenz ω = 1/τ schneiden sich die Asymptoten, diese Frequenz heißt daher Eckfrequenz. Zeichnet man das BodeDiagramm h¨andisch, was im Zeitalter der Computer nat¨ urlich h¨ochstens f¨ ur eine kurze Skizze gebraucht wird, so zeichnet man erst die Eckfrequenz und die beiden Asymptoten. An der Eckfrequenz betr¨agt die Verst¨arkung -3dB. Die Verst¨arkungskurve folgt den Asymptoten ziemlich genau. Die Phase an der Eckfrequenz hat eine Verz¨ogerung von π/4. F¨ ur hohe Frequenzen steigt die Phasenverz¨ogerung zum Grenzwert π/2. 0 − 3 dB
Eckfrequenz
dB
−10 −20 −30 −40 −2 10
−1
10
Asymptote fällt 20 dB pro Dekade
0
1
10
10
2
10
0 −π/4 Eckfrequenz
Phase
−0.5 −1
−π/2
−1.5 −2 −2 10
−1
10
0
10
1
10
2
10
26
Wir interpretieren das Bode-Diagramm: Dieses RC-Glied ist ein Tiefpassfilter: Hohe Frequenzen werden unterdr¨ uckt. Wird die Frequenz verzehnfacht, sinkt die Verst¨arkung jeweils um 20dB. Gleichzeitig tritt eine Phasenverschiebung auf, bei hohen Frequenzen um ungef¨ahr π/2.
Bemerkung 2.1.9. Es gibt einen Zusammenhang zwischen Amplitudenverlauf und Phasenverlauf. Man kann zeigen: Wenn ein stabiles lineares kausales System u ¨ber einen gr¨ oßeren Frequenzbereich einen Amplitudenabfall um 20k dB/Dekade aufweist, so bildet sich in diesem Bereich ein Phasenverz¨ ogerung um mindestens kπ/2 aus. Die mathematisch exakte Formulierung und der Beweis mit Hilfe von Funktionentheorie w¨ urde den Rahmen dieser Vorlesung sprengen.
Beispiel 2.1.10. Zwei RC-Glieder wie in Beispiel 2.1.8 werden hintereinandergeschaltet. (Zwischen den Gliedern steht eine Verst¨ arkerstufe, die das Ausgangssignal des ersten Gliedes nicht ver¨ andert, aber verhindert, dass das zweite Glied auf das erste zur¨ uckwirkt.)
x
y
Die Zeitkonstante des ersten Gliedes ist 0.5, die Zeitkonstante des zweiten Gliedes ist 2.0. Wie sieht das Bode-Diagramm aus? L¨ osung: Bei Hintereinanderschaltung summieren sich sowohl die dB-Werte als auch die Phasenwinkel. Man zeichnet zun¨ achst die Diagramme der beiden einzelnen Glieder (blau und gr¨ un f¨ ur die Eckfrequenzen 2 und 0.5 bei τ = 0.5 bzw. τ = 2), und addiert dann (rot). Wenn man keinen Computer zur Verf¨ ugung hat, zeichnet man die Asymptoten: F¨ ur jedes der beiden Glieder die Null-Linie und eine mit 20 dB pro Dekade fallende Linie, sodass sich die beiden Linien bei der Eckfrequenz ω = 1/τ schneiden. Addiert man die beiden Polygonz¨ uge, erh¨ alt man die Null-Linie bis zur kleineren Eckfrequenz, eine fallende Gerade mit 20 dB/Dekade bis zur gr¨ oßeren Eckfrequenz, und ab da eine fallende Gerade mit 40 dB/Dekade. Der Amplitudenverlauf folgt diesen Asymptoten ziemlich genau. Der Phasenverlauf beider Glieder f¨allt in einer S-f¨ormigen Kurve jeweils von 0 auf −π/2, bei den Eckfrequenzen be¨ tr¨agt er jeweils −π/4. Uberlagerung ergibt eine Kurve, die von 0 auf −π f¨ allt.
27
0
−20 −30 −40 −50 −1 10
Eckfrequenz 2
Eckfrequenz 1
dB
−10
0
1
10
10
0 −π/2
−2
−4 −1 10
Eckfrequenz 2
−π
−3
Eckfrequenz 1
Phase
−1
0
10
1
10
Dieses Filter ist ein wirksameres Tiefpassfilter als das Filter aus Beispiel 2.1.8. Bei Verzehnfachung der Frequenz wird die Amplitude um 40 dB, also auf ein Hundertstel, unterdr¨ uckt. Entsprechend stellt sich f¨ ur hohe Frequenzen eine Phasenverz¨ogerung um π ein. 2.2. Grundbegriffe der Laplacetransformation. 2.2.1. Definition der Laplacetransformation. Definition 2.2.1. Sei f ∈ L1ω ([0, ∞), C). Wir definieren die Laplacetransformierte von f : ( {λ ∈ C | <(λ) ≥ ω} → C, R∞ fˆ : λ 7→ 0 e−λt f (t) dt. (Aus der Definition des L1ω ([0, ∞), C) folgt, dass das Integral in Definition 2.2.1 konvergiert, sobald <(λ) ≥ ω gilt.) 2.2.2. Die Analytizit¨ at der Laplacetransformation. Satz 2.2.2. Sei f ∈ L1ω ([0, ∞), C). Die Laplacetransformierte fˆ ist dann analytisch in der offenen Halbebene <(λ) > ω. F¨ ur die Ableitungen der Laplacetransformierten gilt die Formel Z ∞ dn ˆ n tn e−λt f (t) dt. (2.2.1) f (λ) = (−1) dλn 0 Beweis. Jede differenzierbare Funktion von einem Gebietes in C nach C ist analytisch. Wir m¨ ussen also nur die Differenzierbarkeit beweisen. Beachten Sie zun¨achst, dass das Integral in (2.2.1) f¨ ur alle n konvergiert, denn da <(λ) > ω, gibt es eine Schranke M sodass f¨ ur alle t gilt tn |e−λt | ≤ M e−ωt . Daher ist Z ∞ Z ∞ n −λt t |e f (t)| dt ≤ M e−ωt |f (t)| dt < ∞. 0
0
28
Wir zeigen (2.2.1) durch Induktion nach n. F¨ ur n = 0 ist das einfach die Definition der Laplacetransformation. Der Induktionsschritt von n auf n + 1 geschieht formal durch die folgende Rechnung: dn+1 ˆ f (λ) dλn+1 Z ∞ d = (−1)n tn e−λt f (t) dt dλ Z ∞0 n =(−1) tn (−t)e−λt f (t) dt 0 Z ∞ n+1 =(−1) tn+1 e−λt f (t) dt. 0
Ein exakter mathematischer Beweis muss nat¨ urlich rechtfertigen, dass wir unter dem Integral nach λ differenziert haben. Wir werden uns in dieser Vorlesung oft mit Beweisskizzen wie vorhin begn¨ ugen. An dieser Stelle soll aber illustriert werden, wie eine solche Skizze mit Kenntnissen der Lebesgueschen Integrationstheorie aufzuf¨ ullen w¨are. Sorgf¨altig aufgeschrieben w¨are der Induktionsschritt dann in der folgenden Form: Sei µ ∈ C, mit |µ| < δ ausreichend klein, sodass <(λ) − δ > ω. · ¸ 1 dn ˆ dn ˆ f (λ + µ) − n f (λ) µ dλn dλ ·Z ∞ ¸ Z ∞ 1 n n −(λ+µ)t n −λt = (−1) t e f (t) dt − t e f (t) dt µ 0 Z ∞0 ¤ 1 £ −µt =(−1)n e − 1 tn e−λt f (t) dt. µ 0
(2.2.2)
F¨ ur µ → 0 geht der Integrand in der letzten Zeile gegen −tn+1 e−λt f (t). Wir m¨ ussen aber rechtfertigen, dass sich Grenzwert und Integral vertauschen lassen. Dazu dient die Absch¨atzung |
¤ 1 £ −µt 1 e −1 |=| µ µ
Z 0
t
Z −µe−µs ds| ≤
t
e|µ|s ds ≤ te|µ|t ≤ teδt .
0
Damit kann der Integrand in (2.2.2) unabh¨angig von µ abgesch¨atzt werden: Z
∞
Z0 ∞ ≤ 0
Z
∞
= 0
Z ≤
0
∞
¯ ¯ ¯ 1 £ −µt ¯ ¤ n −λt ¯ e ¯ dt − 1 t e f (t) ¯µ ¯ teδt tn e−<(λ)t |f (t)| dt tn+1 e−[<(λ)−δ]t |f (t)| dt M e−ωt |f (t)| dt < ∞,
29
mit einer geeigneten Konstanten M . Nun kann nach dem Satz von der dominierten Konvergenz das Integral und der Grenzwert vertauscht werden: Z ∞ ¤ 1 £ −µt lim (−1)n e − 1 tn e−λt f (t) dt µ→0 µ 0 · −µt ¸ Z ∞ e − 1 n −λt =(−1)n lim t e f (t) dt µ→0 µ 0 Z ∞ =(−1)n+1 tn+1 e−λt f (t) dt. 0
¤
Bemerkung 2.2.3. Es kommt oft vor, dass sich die Laplacetransformierte u ¨ber die Halbebene {<(λ) > ω} hinaus auf ein viel gr¨ oßeres Gebiet analytisch fortsetzen l¨ asst. Dort konvergiert zwar das Laplaceintegral nicht mehr, aber die Rechenregeln der Laplacetransformation (siehe Satz 2.2.4 unten) behalten durch analytische Fortsetzung ihre G¨ ultigkeit.
2.2.3. Wichtigste Eigenschaften der Laplacetransformation. Der folgende Satz sammelt einige der wichtigsten elementaren Eigenschaften der Laplacetransformation: Satz 2.2.4. Seien f, g ∈ L1ω ([0, ∞), C). Seien α, β, µ ∈ C, γ > 0. Es gilt: (a) Die Laplacetransformation ist linear, d.h., \ αf + βg = αfˆ + βˆ g. (b) Bei Multiplikation einer Funktion mit einer Exponentialfunktion verschiebt sich das Argument der Laplacetransformierten: f\ (t)eµt (λ) = fˆ(λ − µ). (c) Eine Umskalierung der Achse im Zeitbereich bewirkt eine Umskalierung der Achse im Frequenzbereich und eine Multiplikation. Wird die Zeitachse im Zeitbereich mit einer engeren Skala versehen, wird die Skala im Frequenzbereich weiter: f[ (γt)(λ) = γ1 fˆ( λγ ). Beweis. (a):
(b):
Z ∞ \ αf + βg(λ) = e−λt (αf (t) + βg(t)) dt 0 Z ∞ Z ∞ −λt e−λt βg(t) dt = αfˆ(λ) + βˆ g (λ). e αf (t) dt + = 0 0 Z ∞ Z ∞ f\ (t)eµt (λ) = e−λt eµt f (t) dt = e−(λ−µ)t f (t) dt = fˆ(λ − µ). 0
(c):
0
Wir f¨ uhren im Integral eine Variablentransformation s = γt durch: Z ∞ Z ∞ λ 1 1 λ f[ (γt)(λ) = e−λt f (γt) dt = e− γ s f (s) ds = fˆ( ). γ γ γ 0 0 ¤
30
2.2.4. Transformationstabelle f¨ ur einige Funktionen. Bevor wir f¨ ur einige einfache Funktionen die Laplacetransformierte angeben, f¨ uhren wir noch die Eulersche Gamma-Funktion ein: Definition 2.2.5. Die Eulersche Gamma-Funktion wird wie folgt definiert: ( (0, ∞) → R, R∞ Γ: α 7→ 0 tα−1 e−t dt. (Man sieht leicht ein, dass das Integral konvergiert. F¨ ur t → ∞ u ¨berwiegt die negative Exponentialfunktion. F¨ ur t → 0+ sch¨atzt man durch tα−1 ab, und diese Funktion ist integrierbar, wenn α − 1 > −1.) Satz 2.2.6. F¨ ur ganzzahlige n = 1, 2, 3, · · · liefert die Gamma-Funktion die Fakult¨ at: Γ(n) = (n − 1)! . Beweis. Wir gehen mit Induktion vor. Die Verankerung f¨ ur n = 1 ist Z ∞ Γ(0) = e−t dt = 1 = 0!. 0
Nun folgt der Induktionsschritt von n auf n + 1 mittels partieller Integration: Z ∞ ¯∞ Z ∞ n −t n −t ¯ Γ(n + 1) = t e dt = [t (−e )] ¯ + ntn−1 e−t dt = 0 + nΓ(n) = n!. 0
0
0
¤ Jetzt k¨onnen wir einige der wichtigsten Funktionen mit ihrer Laplacetransformierten angeben. Die Transformierten von viel mehr Funktionen findet man in ausgedehnten Tabellenwerken f¨ ur die Laplacetransformation. Besondere Bedeutung besitzen solche Tabellen f¨ ur die Umkehrung: Oft kennt man die Laplacetransformierte und sucht die urspr¨ ungliche Funktion. Satz 2.2.7. Die folgende Tabelle gibt einige Funktionen f : [0, ∞) → C und ihre Laplacetransformierten fˆ : {<(λ) > ω} → C (bei geeignetem ω). f (t) fˆ(λ) 1 1/λ tn /n! (f¨ ur n ∈ N) λ−n−1 α t /Γ(α + 1) (f¨ ur α > −1) λ−α−1 µt e (f¨ ur µ ∈ C) (λ − µ)−1 n µt t e /n! (f¨ ur n ∈ N, µ ∈ C) (λ − µ)−n−1 sin(µt) (f¨ ur µ ∈ C) µ/(λ2 + µ2 ) cos(µt) (f¨ ur µ ∈ C) λ/(λ2 + µ2 ) Beweis. Sei zun¨achst λ > 0. Mittels Variablensubstitution integrieren wir: Z ∞ Z ∞ ³ s ´α 1 −λt α α b ds t (λ) = e t dt = e−s λ λ 0 0 Z ∞ e−s s(α+1)−1 ds = λ−α−1 Γ(α + 1). = λ−α−1 0
Die Laplacetransformierte ist in der Halbebene, in der sie definiert ist, analytisch. Nach dem Prinzip der isolierten Nullstellen sind zwei analytische Funktionen gleich,
31
wenn sie auf einer Menge u ¨bereinstimmen, die einen H¨aufungspunkt besitzt. Daher gilt die obige Formel nicht nur auf der positiven Halbgeraden, sondern auf der ganzen Halbebene {<(λ) > 0}. Die Transformationen von 1 und tn sind Sonderf¨alle dieser Formel. Bei Multiplikation mit eµt verschiebt sich nach Satz 2.2.4(b) nur das Argument: α eµt (λ) = Γ(α + 1)(λ − µ)−α−1 . t[
Die Transformationen der Winkelfunktionen erhalten wir durch Zerlegung in Exponentialfunktionen: · ¸ 1 1 1 iµt\−iµt 1 µ \ ](λ) = − sin(µt)(λ) = [e − e = 2 , 2i 2i λ − iµ λ + iµ λ + µ2 · ¸ 1 1 1 λ 1 \ + e−iµt ](λ) = + = 2 . cos(µt)(λ) = [eiµt\ 2 2 λ − iµ λ + iµ λ + µ2 ¤
2.2.5. Eindeutigkeit. Am Ende geben wir noch einen sehr wichtigen Satz an, den wir aber erst sp¨ater beweisen werden. Um aus der Laplacetransformierten auf die urspr¨ ungliche Funktion zur¨ uckschließen zu k¨onnen, muss gesichert sein, dass nicht zwei verschiedene Funktionen dieselbe Laplacetransformierte haben. Dazu dient der folgende Eindeutigkeitssatz. Satz 2.2.8. Seien f, g ∈ L1ω , und sei fˆ = gˆ auf einer Teilmenge U ⊂ {λ ∈ C | <(λ) > ω}. Die Menge U besitze einen H¨ aufungspunkt. Dann ist f (t) = g(t) f¨ ur fast alle t ∈ [0, ∞). Den Beweis dieses Satzes k¨onnen wir leicht f¨ uhren, wenn wir sogar eine explizite Formel zur Berechnung von f aus fˆ entwickelt haben. Das geschieht in Unterabschnitt 2.6. Dort werden wir diesen Satz nochmals als Satz 2.6.11 formulieren und beweisen. 2.3. Laplacetransformation, Faltung und Ableitung. In diesem Unterabschnitt wird klar werden, worin der Nutzen der Laplacetransformation besteht. Faltung und Ableitung werden im Frequenzbereich, also f¨ ur die transformierten Funktionen, durch Multiplikation beschrieben. 2.3.1. Der Faltungssatz. ¨ Mit unserer neuen Terminologie k¨onnen wir die Ubertragungsfunktion eines kausalen, zeitinvarianten linearen Systems einfach als die Laplacetransformierte der Impulsantwort beschreiben. Bei Hintereinanderschaltung zweier Systeme werden die ¨ Impulsantworten gefaltet, die Ubertragungsfunktionen aber einfach multipliziert. Der mathematische Hintergrund ist der Faltungssatz: Satz 2.3.1. Seien f, g ∈ L1ω ([0, ∞), C) mit den Laplacetransformierten fˆ, gˆ. Dann gilt f¨ ur alle λ ∈ C mit <(λ) ≥ ω: f[ ∗ g(λ) = fˆ(λ)ˆ g (λ).
32
Beweis.
Z f[ ∗ g(λ) =
∞
e−λt (f ∗ g)(t) dt Z ∞ Z t = e−λt f (t − s)g(s) dsdt 0 0 Z ∞Z t = e−λ(t−s) f (t − s)e−λs g(s) dsdt 0 0 Z ∞Z ∞ = e−λ(t−s) f (t − s) dt e−λs g(s) ds 0 s Z ∞Z ∞ = e−λτ f (τ ) dτ e−λs g(s) ds 0 0 Z ∞ =fˆ(λ) e−λs g(s) ds 0
0
=fˆ(λ)ˆ g (λ). ¤ Wir haben den Diracschen Delta-Impuls formal als Einselement der Faltung definiert. Im Frequenzbereich wird die Faltung durch die Multiplikation ersetzt, und das Einselement der Multiplikation ist die Konstante 1. Damit der Kalk¨ ul auch f¨ ur den Delta-Impuls g¨ ultig bleibt, definieren wir: Definition 2.3.2. Die Laplacetransformierte des Diracschen Delta-Impulses δ ist die konstante Funktion δˆ = 1. Den Faltungssatz kann man ben¨ utzen, um Volterrasche Integralgleichungen (also Integralgleichungen, die ein Faltungsintegral enthalten) zu l¨osen: Beispiel 2.3.3. Sei α ∈ (0, 1). Gesucht ist eine Funktion u ∈ L1ω ([0, ∞), R) (ω > 0 geeignet), sodass Z t (t − s)−α u(s) ds = 1. 0
L¨ osung: Wir m¨ ussen also eine Faltungsgleichung l¨osen. Wir wenden auf beiden Seiten die Laplacetransformation an. Aus Satz 2.2.7 entnehmen wir die Laplacetransformierten von t−α und der konstanten Funktion 1: (t−α ) ∗ u = 1, −α (λ) · u ˆ td ˆ(λ) = 1(λ), Γ(1 − α)λα−1 u ˆ(λ)
= λ−1 , 1 u ˆ(λ) = λ−α . Γ(1 − α) Nun m¨ ussen wir noch von der Laplacetransformierten u ˆ auf u schließen. Gl¨ ucklicherweise hilft uns in diesem Fall wieder Satz 2.2.7: 1 λ−(α−1)−1 , u ˆ(λ) = Γ(1 − α) 1 1 α−1 u(t) = t . Γ(1 − α) Γ(α)
33
Beispiel 2.3.4. Wir betrachten wieder die Regelstrecke aus Beispiel 1.1.9:
Störung z Regler
Führungs− größe + u
G
Stell− größe x
Heizung +
+
F
Regel− größe y
− Rückkoppelung
f, g seien die Impulsantworten des Heizungssystems und des Reglers, und F, G die ¨ entsprechenden Ubertragungsfunktionen. Bestimmen Sie die Laplacetransformierte yˆ der Zimmertemperatur aus den Transformierten u ˆ, zˆ der F¨ uhrungsgr¨ oße und der St¨ orung. L¨ osung: Im Zeitbereich gilt y = f ∗ x + z,
x = g ∗ (u − y).
Durch Laplacetransformation erhalten wir im Frequenzbereich: yˆ = F u ˆ + zˆ,
x ˆ = G(ˆ u − yˆ).
Aufl¨osen der Gleichung nach yˆ ergibt: (2.3.1)
yˆ(λ) =
G(λ) 1 u ˆ(λ) + zˆ(λ). 1 + F (λ)G(λ) 1 + F (λ)G(λ)
¨ Da das System zwei Eing¨ange und einen Ausgang hat, besitzt es auch zwei Ubertra¨ gungsfunktionen. Die Ubertragungsfunktion vom F¨ uhrungssignal u zur Regelgr¨ oße ¨ y ist G/(1 + F G), die Ubertragungsfunktion vom St¨ orsignal z zur Regelgr¨ oße y ist 1/(1 + F G). Vergleichen Sie das Ergebnis mit (1.3.1), das sich ergab, wenn die Systeme F, G die Signale einfach mit den konstanten Faktoren F, G verst¨ arken w¨ urden. Die Formel, die wir eben im Frequenzbereich abgeleitet haben, ist dieselbe, nur h¨angen nun F, G von λ ab. Im Zeitbereich erhalten wir eine Volterrasche Integralgleichung (1.3.2). Beispiel 2.3.5. Beweisen Sie (die bereits bekannte Formel) c tn (λ) = λ−n−1 n! mit Hilfe des Faltungssatzes. Beweis. Vollst¨andige Induktion nach n. Durch direkte Rechnung erh¨ alt man f¨ ur die konstante Funktion 1: Z ∞ ˆ1(λ) = e−λt dt = λ−1 . 0
34
Nun folgt der Induktionsschritt von n auf n + 1: Z t n tn+1 s = ds, (n + 1)! 0 n! tn+1 tn = 1 ∗ ( ), (n + 1)! n! \ c tn+1 tn (λ) = ˆ1(λ) (λ), (n + 1)! n! \ tn+1 (λ) = λ−1 λ−n−1 = λ−n−2 . (n + 1)! ¤
2.3.2. Laplacetransformation und Ableitung. Der folgende Satz ist vielleicht das n¨ utzlichste Resultat u ¨ber die Laplacetransformation u ¨berhaupt: Er zeigt, dass im Frequenzbereich die Ableitung durch eine Multiplikation beschrieben wird. Satz 2.3.6. Sei ω > 0.
Rt (a) Sei g ∈ L1ω ([0, ∞), C) und sei f (t) = 0 g(s) ds. Dann ist f ∈ L1ω ([0, ∞), C) und es gilt µZ t\ ¶ 1 g(s) ds (λ) = gˆ(λ). λ 0
(b) Sei f ∈ Wω1,1 ([0, ∞), C) mit Ableitung f 0 im Sinne von Wω1,1 . (D.h., f ist eine Stammfunktion von f 0 , umgekehrt ist dann f 0 (t) f¨ ur fast alle t die Ableitung von f .) Dann ist d 0 )(λ) = λfˆ(λ) − f (0). (f (c) Sei f ∈ Wωk,1 ([0, ∞), C) mit Ableitungen f (j) der Ordnungen j = 0 · · · k (im Sinne von Wωk,1 ). Dann gilt k−1 X ¡\¢ f (k) (λ) = λk fˆ(λ) − λk−j−1 f j (0). j=0
Beweis. (a): Da ω > 0, ist die konstante Funktion 1 ein Element von L1ω ([0, ∞), C). Es ist Z t Z t f (t) = g(s) ds = 1 · g(s) ds = (1 ∗ g)(t). 0
Damit ist auch f als Faltung zweier und es gilt nach dem Faltungssatz
0
L1ω -Funktionen
ein Element von L1ω ([0, ∞), C),
1 fˆ(λ) = 1d ∗ g(λ) = ˆ1(λ)ˆ g (λ) = gˆ(λ). λ
35
(b): Es gilt Z f (t) = f (0) +
t
f 0 (s) ds = f (0)1 + (1 ∗ f 0 )(t),
0
1 1d 0 )(λ), fˆ(λ) = f (0) + (f λ λ d 0 )(λ) = λfˆ(λ) − f (0). (f (c): folgt aus (b) durch eine einfache Induktion.
¤
2.3.3. L¨ osung von linearen Differentialgleichungen. Die Laplacetransformation ist eine der Methoden, mit denen man lineare Differentialgleichungen l¨osen kann: Beispiel 2.3.7. L¨ osen Sie das Anfangswertproblem µ ¶0 µ ¶µ ¶ x(t) 2 0 x(t) = , y(t) 1 2 y(t) µ ¶ µ ¶ x(0) 3 = . y(0) 1 L¨ osung: Wir nehmen auf beiden Seiten Laplacetransformationen: µ ¶0 µ \ ¶µ ¶ [ x 2 0 x =[ ]. y 1 2 y Nat¨ urlich verstehen wir die Laplacetransformation der vektorwertigen Funktionen einfach komponentenweise. F¨ ur die Transformation der Ableitung haben wir Satz 2.3.6. Die Multiplikation mit der konstanten Matrix besteht nur aus linearen Operationen, sodass sie mit der Laplacetransformation vertauscht werden kann. Denn die Laplacetransformation ist linear. µ ¶ µ ¶ µ ¶µ ¶ x ˆ(λ) x(0) 2 0 x ˆ(λ) λ − = , yˆ(λ) y(0) 1 2 yˆ(λ) · µ ¶¸ µ ¶ µ ¶ 2 0 x ˆ(λ) x(0) λ− = . 1 2 yˆ(λ) y(0) Wenn λ nicht ein Eigenwert der Systemmatrix ist, k¨onnen wir umformen µ ¶ · µ ¶¸−1 µ ¶ x ˆ(λ) 2 0 3 = λ− . yˆ(λ) 1 2 1 Berechnung der Inversen ergibt µ ¶ µ 1 x ˆ(λ) λ−2 = 1 − (λ−2) yˆ(λ) 2
¶µ ¶ µ ¶ 3 3 λ−2 . = 1 3 1 1 λ−2 λ−2 − (λ−2)2 0
Gl¨ ucklicherweise ist die Umkehrung der Laplacetransformation in diesem Fall sehr leicht: Aus der Tabelle in Satz 2.2.7 entnehmen wir: 1 1 µt (λ) = d µt (λ) = ec , te . λ−µ (λ − µ)2
36
Mit µ = 2 erhalten wir daher µ ¶ µ ¶ x(t) 3e2t = 2t . e − 3te2t y(t) Wir haben hier u ¨brigens vom (noch nicht bewiesenen) Eindeutigkeitssatz 2.2.8 Gebrauch gemacht. Sonst k¨onnten wir nicht die Funktionen x, y an Hand ihrer Laplacetransformierten eindeutig bestimmen.
Satz 2.3.8. Sei A ∈ Cn×n eine konstante Matrix, sei x0 ∈ Cn ein Vektor. Die (vektorwertige) L¨ osung der linearen Differentialgleichung x0 (t) = Ax(t),
x(0) = x0
erh¨ alt man durch Laplacetransformation: x ˆ(λ) = (λ − A)−1 x0 . Beweis. Es gilt d 0 )(λ) = (Ax)(λ), [ (x λˆ x(λ) − x(0) = Aˆ x(λ), x ˆ(λ) = (λ − A)−1 x0 . ¤ Die Matrix (λ − A)−1 spielt in der Analysis matrixwertiger Funktionen, nicht nur im Zusammenhang mit Differentialgleichungen, eine zentrale Rolle. Daher gibt es f¨ ur sie einen eigenen Namen: Definition 2.3.9. Sei A ∈ Cn×n eine konstante Matrix, und σ(A) ihr Spektrum, also die Menge der Eigenwerte von A. Die matrixwertige meromorphe Funktion ( C \ σ(A) → Cn×n , λ 7→ (λ − A)−1 , heißt die Resolvente von A.
Auch lineare Differentialgleichungen h¨oherer Ordnung und inhomogene lineare Differentialgleichungen lassen sich mit der Laplacetransformation behandeln: Beispiel 2.3.10. L¨ osen Sie das Anfangswertproblem x00 (t) − 3x0 (t) + 2x(t) = −2, x(0) = 2, x0 (0) = 6.
37
L¨ osung: Wir nehmen Laplacetransformationen auf beiden Seiten und verwenden Satz 2.3.6: c00 (λ) − 3xb0 (λ) + 2ˆ x x(λ) = −ˆ2(λ), 2 [λ2 x ˆ(λ) − λx(0) − x0 (0)] − 3[λˆ x(λ) − x(0)] + 2ˆ x(λ) = − , λ 2 (λ2 − 3λ + 2)ˆ x(λ) = λx(0) + x0 (0) − 3x(0) − , λ 2λ2 − 2 x ˆ(λ) = , λ(λ − 2)(λ − 1) 2λ + 2 x ˆ(λ) = . λ(λ − 2) Um die Laplacetransformation umzukehren und Satz 2.2.7 anzuwenden, schreiben wir den Bruch auf der rechten Seite um. Sie k¨onnen die Richtigkeit durch direkte Rechnung nachpr¨ ufen. Wie man systematisch auf diese Umformung kommt, beschreiben wir in Satz 2.4.1 und den darauf folgenden Kommentaren. 3 1 − , λ−2 λ x(t) = 3e2t − 1. x ˆ(λ) =
2.3.4. Gebrochene Ableitungen. Manche Funktionen kann man einmal, zweimal, . . . , k-mal differenzieren. Offensichtlich kann man keine Funktion ein Halbmal differenzieren. Oder doch nicht so offensichtlich? Ist f (0) = 0, so entspricht der Ableitung im Frequenzbereich eine Multiplikation mit λ. Ist auch f 0 (0) = 0, so entspricht der zweiten Ableitung im Zeitbereich eine Multiplikation mit λ2 im Frequenzbereich. Wenn man die Laplacetransformation einer Funktion nimmt, sie mit λ1/2 multipliziert, und dann die Laplacetransformation r¨ uckg¨angig macht, h¨atte man eine Art halbe Ableitung definiert. Wir beginnen mit dem Integraloperator: Definition 2.3.11. Sei ω > 0. Sei f ∈ L1ω ([0, ∞), C) und α > 0. Wir definieren eine neue Funktion I α f ∈ L1ω ([0, ∞), C) durch Z t 1 α [I f ](t) = (t − s)α−1 f (s) ds. Γ(α) 0 Wir bezeichnen I α f als das gebrochene Integral der Ordnung α von f . (Als Faltung der zwei L1ω -Funktionen f und tα−1 /Γ(α) liegt nat¨ urlich I α f wieder 1 in Lω .) Der folgende Satz rechtfertigt die Benennung als gebrochenes Integral:
38
Satz 2.3.12. Sei f ∈ L1ω ([0, ∞), C), seien α, β > 0, n ∈ N. Dann gilt: α f (λ) = λ−α fˆ(λ), Id Z Z t Z τ1 n I f (t) = ··· 0
I α (I β f ) = I
0 α+β
τn−1
f (τn ) dτn · · · dτ1 , 0
f,
d α+1 I f = I α f. dt Beweis. Wegen des Faltungssatzes Satz 2.3.1 und Satz 2.2.7 gilt α−1 td α f (λ) = (λ)fˆ(λ) = λ−α fˆ(λ). Id Γ(α)
Die restlichen Behauptungen beweisen wir durch die Laplacetransformation (und greifen damit auf den Eindeutigkeissatz zur¨ uck). Nach Satz 2.3.6(a) gilt Z tZ
τ1
[
··· 0
0
Z τ\ n−1 1 1 n f (λ). f (τn ) dτn · · · dτ1 ] = · · · fˆ(λ) = λ−n fˆ(λ) = Id λ λ 0
Ferner ist β f (λ) = λ−α λ−β fˆ(λ) = I\ α+β f (λ). I α\ (I β f )(λ) = λ−α Id
Die letzte Gleichung folgt nun aus Z [I
α+1
1
α
f ](t) = [I (I f )](t) =
t
[I α f ](s) ds.
0
¤ Wir definieren nun die gebrochene Ableitung. Die heuristische Idee hinter der Definition ist einfach. Wenn eine Funktion zun¨achst (1 − α)-fach integriert und anschließend differenziert wird, heben sich (1 − α) Potenzen der Ableitungen gegen das gebrochene Integral auf, es bleibt eine α-fache gebrochene Ableitung. Definition 2.3.13. Sei f ∈ L1ω ([0, ∞), C) und α ∈ (0, 1). Falls das gebrochene Integral I 1−α f in Wω1,1 ([0, ∞), C) liegt, dann sagen wir, dass f eine gebrochene Ableitung der Ordnung α besitzt und definieren diese durch Z dα d 1 d t [ α f ](t) := [ (I 1−α f )](t) = (t − s)−α f (s) ds. dt dt Γ(1 − α) dt 0 Satz 2.3.14. Sei f ∈ L1ω ([0, ∞), C) und α, β ∈ (0, 1). Wenn die unten vorkommenden gebrochenen Ableitungen existieren, dann gilt: µ\ ¶ dα f (λ) = λα fˆ(λ), dtα dα+β dα dβ f = f, α+β dtα dtβ (dtα−β d dα β f falls α > β, dtα−β I f = α β−α dt I f falls β > α.
39
Beweis.
µ\ ¶ µ \ ¶ dα d 1−α 1−α f (λ) − [I 1−α f ](0) f (λ) = I f (λ) = λI\ α dt dt = λλα−1 fˆ(λ) = λα fˆ(λ).
Die weiteren Eigenschaften folgen direkt durch Anwendung der Laplacetransformation. ¤ Gleichungen, die mit gebrochenen Ableitungen geschrieben werden, sind eigentlich Integrodifferentialgleichungen, die Faltungen mit Potenzfunktionen enthalten. Der Kalk¨ ul der gebrochenen Integration und Differentiation findet in j¨ ungerer Zeit reges Interesse. 2.4. Inversion rationaler Funktionen. 2.4.1. Partialbruchzerlegung und ihre Folgerungen. Systeme von linearen Differentialgleichungen mit konstanten Koeffizientenmatrizen lassen sich mit Hilfe der Laplacetransformation l¨osen. Die Transformierte der L¨osung ist dann eine rationale Funktion. Es stellt sich die Frage der Umkehrung der Transformation: Wie erh¨alt man eine Funktion f aus ihrer Laplacetransformierten fˆ? Bisher kennen wir den Sonderfall c tn 1 (2.4.1) (λ) = . n! (λ − µ)n+1 Durch den folgenden Satz aus dem Standardrepertoire der Algebra und etwas Rechentechnik k¨onnen wir die Umkehrung jeder rationalen Funktion auf diesen Sonderfall zur¨ uckf¨ uhren: Satz 2.4.1 (Partialbruchzerlegung). Seien P und Q 6= 0 zwei Polynome u ¨ber C. Die Nullstellen von Q seien µ1 , · · · , µm mit ihren Vielfachheiten ν1 , · · · , νm . F¨ ur die Grade gelte ∂P < ∂Q. Dann gibt es komplexe Zahlen cjk f¨ ur j = 1, · · · , m, k = 1, · · · , νj , sodass f¨ ur alle λ ∈ C gilt: m
(2.4.2)
νj
P (λ) X X 1 = cjk . Q(λ) j=1 (λ − µj )k k=1
F¨ ur die Umkehrung der Laplacetransformation spielt dieser Satz folgende Rolle: Satz 2.4.2. Seien P und Q 6= 0 zwei Polynome u ¨ber C mit ∂P < ∂Q. Die Partialbruchzerlegung von P/Q sei m
νj
P (λ) X X 1 = . cjk Q(λ) j=1 (λ − µj )k k=1
Dann ist P/Q die Laplacetransformierte fˆ der Funktion f (t) =
νj m X X j=1 k=1
cjk
tk−1 µj t e . (k − 1)!
40
Beweis. Direkte Folge von (2.4.1).
¤
Das asymptotische Verhalten von f f¨ ur t → ∞ sieht man an den Polstellen der Transformierten, wenn diese eine rationale Funktion ist: Satz 2.4.3. Sei f eine Funktion mit rationaler Laplacetransformierter fˆ = P/Q, dabei seien gemeinsame Nullstellen aus P und Q bereits gek¨ urzt. Seien µ1 , · · · , µm die Nullstellen von Q mit Vielfachheiten ν1 , · · · , νm . Dann gilt: (a) Gilt <(µj ) < 0 f¨ ur alle j = 1 · · · m, so ist limt→∞ f (t) = 0. Dabei klingt f sogar schneller ab als e−ωt , wenn f¨ ur alle j gilt: <(µj ) < −ω. (b) Sei maxj <(µj ) = 0, und sei νj = 1 f¨ ur alle j, f¨ ur die <(µj ) = 0 gilt. Dann ankt, konvergiert aber nicht gegen Null. ist f (t) beschr¨ (c) Sei maxj <(µj ) = 0, und mindestens ein j habe νj > 1 und <(µj ) = 0. Dann ist f (t) unbeschr¨ ankt und w¨ achst wie eine Potenz von t. (d) Sei f¨ ur ein j der Realteil <(µj ) > 0. Dann w¨ achst f (t) exponentiell. Beweis. Direkte Folge von Satz 2.4.2.
¤
Bemerkung 2.4.4. In der klassischen Regelungstechnik arbeitet man mit rationalen Funktionen im Frequenzbereich, das entspricht Systemen von linearen Differentialgleichungen. Man konstruiert Regler, die Systeme stabilisieren, indem man auf die Pole der Laplacetransformierten achtet. Pole in der rechten Halbebene verursachen Instabilit¨ at. Auch die Stabilit¨ at von unendlichdimensionalen Systemen (z.B. partielle Differentialgleichungen) und Volterragleichungen wird oft mit Hilfe der Laplacetransformation untersucht. Ist die L¨ osung stabil, so gibt es keine Singularit¨ aten in der rechten Halbebene. Die Umkehrung gilt aber nur unter Zusatzbedingungen. An engineer flies back home from a conference in Warsaw on Polish airways. On its way the plane enters a turbulent thunderstorm and begins shaking. The captain announces something in Polish, and many passengers get up and go to the other side of the plane. Unable to understand the announcement, the engineer asks one of these passengers, why they are moving. “The captain has asked Polish passengers to move to the left, since Poles in the right half-plane are unstable.” (Private communication by R. K. Miller.)
2.4.2. Rechnerische Behandlung der Partialbruchzerlegung. Zur praktischen Anwendung des Satzes bestimmt man zun¨achst die Nullstellen von Q und ihre Vielfachheiten, und macht den Ansatz der Partialbruchzerlegung (2.4.2) mit unbekannten cjk . Man bringt die Gleichung dann auf gemeinsamen Nenner: νj m X X (2.4.3) P (λ) = cjk (λ − µ1 )ν1 · · · (λ − µj )νj −k · · · (λ − µm )νm . j=1 k=1
Ab hier gibt es zwei M¨oglichkeiten. (a) Man multipliziert die rechte Seite von (2.4.3) aus und sortiert nach Potenzen von λ. Die Koeffizienten der einzelnen Potenzen auf der rechten Seite m¨ ussen die Koeffizienten von P auf der linken Seite sein, da die Gleichung f¨ ur alle λ gilt. Man erh¨alt ein lineares Gleichungssystem f¨ ur die cjk .
41
(b) (b1) Man setzt in (2.4.3) links und rechts λ = µj ein. Die meisten Terme fallen aus der Gleichung, und man erh¨alt direkt die Koeffizienten cjνj . (b2) Gibt es Mehrfachnullstellen, so differenziert man (2.4.3) und setzt wieder links und rechts λ = µj f¨ ur alle Nullstellen mit νj ≥ 2 ein. Es verbleiben die Terme cjνj und cj(νj −1) in der Gleichung. Die cjνj sind bereits bekannt, sodass man nach cj(νj −1) aufl¨osen kann. (b3) Man wiederholt das Differenzieren und Einsetzen der Nullstellen ausreichender Vielfachheit, bis alle cjk bestimmt sind. Beispiel 2.4.5. Bestimmen Sie die Funktion f mit der Laplacetransformierten fˆ(λ) =
λ+1 . (λ − 2)2 (λ + 3)
L¨ osung: Die Nullstellen des Nenners liegen bereits vor: µ1 = 2, ν1 = 2, µ2 = −3, ν2 = 1. (Tats¨achlich ist die Bestimmung der Nullstellen die heikelste Aufgabe, vor allem, wenn es mehrfache Nullstellen gibt.) Dann liest sich (2.4.2) wie folgt: λ+1 (λ − 2)2 (λ + 3) λ+1
= c11
1 1 1 + c12 + c21 , λ−2 (λ − 2)2 λ+3
= c11 (λ − 2)(λ + 3) + c12 (λ + 3) + c21 (λ − 2)2 .
Methode 1: Koeffizientenvergleich: λ+1
=
c11 (λ2 + λ − 6) + c12 (λ + 3) + c21 (λ2 − 4λ + 4)
=
λ2 (c11 + c21 ) + λ(c11 + c12 − 4c21 ) + (−6c11 + 3c12 + 4c21 ).
Gleichsetzen der Koeffizienten system 1 1 −6
f¨ ur gleiche Potenzen ergibt das lineare Gleichungs0 1 3
1 c11 0 −4 c12 = 1 . 4 c21 1
Die L¨osung ergibt c11 =
2 3 2 , c12 = , c21 = − . 25 5 25
Methode 2: Einsetzen f¨ ur λ = 2 und λ = −3: λ + 1 = c11 (λ − 2)(λ + 3) + c12 (λ + 3) + c21 (λ − 2)2 . λ=2
λ = −3
2 + 1 = c11 · 0 · 5 + c12 · 5 + c21 · 02 , 3 c12 = . 5 −3 + 1 = c11 · (−5) · 0 + c12 · 0 + c21 · 52 , 2 c21 = − . 25
42
Es gibt eine Doppelnullstelle bei λ = 2. Daher m¨ ussen wir einmal differenzieren und λ = 2 einsetzen. 1 = c11 [(λ + 3) + (λ − 2)] + c12 + c21 · 2(λ − 2), λ=2: 1 = c11 · 5 + c12 + c21 · 0, 3 1 = 5c11 + , 5 2 c11 = . 25 Beide Methoden liefern · ¸ 15 1 2 2 + fˆ(λ) = − , 25 λ − 2 (λ − 2)2 λ+3 ¤ 1 £ 2t 2e + 15te2t − 2e−3t . f (t) = 25 2.5. Grenzwerts¨ atze. 2.5.1. F¨ ur große λ geht fˆ(λ) gegen Null: Satz 2.5.1. Sei f ∈ L1ω . Dann ist in der komplexen Halbebene <(λ) ≥ ω der Grenzwert lim fˆ(λ) = 0. |λ|→∞,<(λ)≥ω
Beweis. Wir beweisen den Satz zun¨achst f¨ ur eine Treppenfunktion: Sei 0 = t0 < t1 < · · · < tn = T, ( γj falls t ∈ [tj , tj+1 ) (j = 0, · · · , n − 1), f (t) = 0 falls t ≥ tn . Dann ist |fˆ(λ)|
¯ ¯ ¯n−1 Z tj+1 ¯ ¯X ¯ = ¯¯ γj e−λt dt¯¯ tj ¯ j=0 ¯ ≤
≤
¯ ¯ ¯ γj −λtj − e−λtj+1 )¯ ¯ (e λ j=0
n−1 X¯
n−1 X 1 max{e−<(λ)T , 1} |γj |. |λ| j=0
Daher geht fˆ(λ) gegen Null, wenn <(λ) ≥ ω und |λ| → ∞. Nun sei f ∈ L1ω ([0, ∞), C) beliebig und ² > 0. Wir w¨ahlen eine Treppenfunktion g so, dass ² kf − gkL1ω ≤ , 2 und M > 0 so groß, dass f¨ ur |λ| > M und <(λ) ≥ ω gilt ² |ˆ g (λ)| < . 2
43
Dann ist f¨ ur solche λ:
¯Z ∞ ¯ ¯ ¯ = ¯¯ e−λt (f (t) − g(t)) dt + gˆ(λ)¯¯ Z 0∞ ≤ e−ωt |f (t) − g(t)| dt + |ˆ g (λ)|
|fˆ(λ)|
0
= kf − gkL1ω + |ˆ g (λ)| ² ² + = ². ≤ 2 2 ¤ 2.5.2. R¨ uckschl¨ usse auf das asymptotische Verhalten von f aus fˆ. Nicht immer l¨asst sich die explizite Umkehrung der Laplacetransformation finden. Im Gegenteil, wenn die Transformierte nicht rational ist, findet man die Umkehrung nur in seltenen Ausnahmef¨allen. Die folgenden S¨atze erlauben, ohne explizite Kenntnis der Umkehrung das asymptotische Verhalten einer Funktion aus ihrer Laplacetransformierten abzulesen. Beachten Sie, dass das Verhalten von f (t) f¨ ur t → ∞ aus dem Verhalten von fˆ(λ) bei λ = 0+ abzulesen ist, w¨ahrend das ¨ Verhalten von f (0+) aus fˆ(λ) f¨ ur λ → ∞ ersichtlich wird. Etwas Ahnliches haben wir schon bei Skalentransformation der Zeitachse beobachtet (Satz 2.2.4(c)). Wir beweisen jeweils nur eine besonders einfache Variante. Satz 2.5.2. Sei f ∈ L1ω ([0, ∞), C), stetig von rechts an 0+. Dann ist f (0) = lim λfˆ(λ). λ→∞
ur ² > 0 w¨ahlen wir δ > 0 so klein, dass Beweis. Sei oBdA ω > 0. F¨ ² |f (t) − f (0)| < f¨ ur alle t ≤ δ. 2 Wir w¨ahlen λ > ω ausreichend groß, sodass ² λe−(λ−ω)δ kf − f (0)kL1ω < . 2 Dann gilt: |λfˆ(λ) − f (0)| ¯ Z ∞ ¯ ¯ ¯ −λt ¯ = ¯λ e f (t) dt − f (0)¯¯ ¯ Z0 ∞ ¯ ¯ ¯ −λt ¯ = ¯λ e (f (t) − f (0)) dt¯¯ Z 0∞ ≤ λ e−λt |f (t) − f (0)| dt 0
Z ≤
λ
Z
∞
e δ
≤
λe
e |f (t) − f (0)| dt + λ
Z
−(λ−ω)δ
² ² + = ². 2 2
e−λt |f (t) − f (0)| dt
0
Z
∞
e 0
≤
δ
−(λ−ω)t ωt
−ωt
|f (t) − f (0)| dt + λ 0
∞
e−λt dt sup |f (t) − f (0)| t∈[0,δ]
44
¤ Satz 2.5.3. Die Funktion f ∈ L1ω ([0, ∞), C) besitze einen endlichen Grenzwert f∞ := limt→∞ f (t). Dann ist f∞ = lim λfˆ(λ). λ→0+
ur alle ω > 0. Daher existiert Beweis. Weil der Grenzwert f∞ existiert, ist f ∈ L1ω f¨ fˆ(λ) f¨ ur alle λ > 0. Zu ² > 0 w¨ahlen wir T > 0 so, dass ² |f (t) − f∞ | < f¨ ur alle t > T. 2 Wir w¨ahlen dann λ > 0 ausreichend klein, so dass Z T ² |f (t) − f∞ | dt < . λ 2 0 Damit ist |λfˆ(λ) − f∞ | ¯ Z ∞ ¯ ¯ ¯ −λt ¯ = ¯λ e f (t) dt − f∞ ¯¯ ¯ Z0 ∞ ¯ ¯ ¯ −λt ¯ = ¯λ e (f (t) − f∞ ) dt¯¯ Z 0∞ ≤ λ e−λt |f (t) − f∞ | dt 0
Z ≤
λ
Z
T
0
≤
∞
|f (t) − f∞ | dt + λ
e−λt dt · sup |f (t) − f∞ | t∈[T,∞)
T
² ² + = ². 2 2 ¤
Beispiel 2.5.4. Wir betrachten wieder den Regelkreis aus Beispiel 1.1.9.
Störung z Regler
Führungs− größe + u
G
Stell− größe x
Heizung + F
+
Regel− größe y
− Rückkoppelung
Das F¨ uhrungssignal sei konstant u = 0. Kann die Regelstrecke ein konstantes St¨ orsignal z = 1 gegen Null ausregeln?
45
Wir betrachten dabei zwei Typen von Reglern: Einen Proportionalregler (a) und einen Proportional-Integral-Regler (PI-Regler) (b): (a)
[G(y)](t) = ay(t)
(a > 0), Z t [G(y)](t) = ay(t) + b y(s)ds
(b)
(a, b > 0).
−∞
¨ ¨ L¨ osung: Sei F (λ) die Ubertragungsfunktion des Systems F, und G(λ) die Ubertra¨ gungsfunktion des Reglers. Wir wissen bereits, dass die Ubertragungsfunktion von z auf y durch die folgende Formel gegeben ist (2.3.1): yˆ(λ) =
1 zˆ(λ). 1 + F (λ)G(λ)
Je nach Regler ist ( a G(λ) = a+
b λ
f¨ ur den Proportionalregler, f¨ ur den PI-Regler.
F¨ ur die konstante St¨orung z = 1 ist zˆ(λ) =
1 . λ
Damit ist yˆ(λ)
=
yˆ(λ)
=
1 (Proportionalregler), λ(1 + aF (λ)) 1 (PI-Regler). λ(1 + (a + b/λ)F (λ))
Wir betrachten nun lim y(t) = lim λˆ y (λ).
t→∞
λ→0+
Im Fall des Proportionalreglers erhalten wir λˆ y (λ) =
1 1 → . 1 + aF (λ) 1 + aF (0)
Ist F (0) 6= 0, so kann der Proportionalregler die verbleibende St¨orung beliebig klein machen, wenn seine Verst¨arkung ausreichend groß ist. Jedoch wird er die St¨orung nicht auf Null ausregeln. Wir wissen, dass man Regler mit beliebig großen Verst¨arkungsfaktoren nicht implementieren kann, ohne die Stabilit¨at des Systems zu gef¨ahrden und Schwingungen zu induzieren. F¨ ur den PI-Regler erhalten wir: λˆ y (λ) =
λ 1 = →0 1 + aF (λ) + bF (λ)/λ λ + aλF (λ) + bF (λ)
falls F (0) 6= 0. Der PI-Regler kann also das System so ausregeln, dass die Regelgr¨oße trotz konstanter St¨orung gegen Null konvergiert.
46
2.6. Inversionsformel von Post-Widder. Bisher k¨onnen wir die Laplacetransformation nur umkehren, wenn die Transformierte eine rationale Funktion ist. In diesem Abschnitt beweisen wir eine von zwei allgemeinen Umkehrformeln. Als Nebenprodukt erhalten wir den bisher noch nicht bewiesenen, aber oft verwendeten Eindeutigkeitssatz und den Satz von Titchmarsh u ¨ber die Nullteilerfreiheit der Faltung auf der Halbgeraden. Die Umkehrformel von Post-Widder ist kompliziert anzuschreiben, und auch ihr Beweis ist aufwendig. Wir bauen den Beweis mit einigen Hilfss¨atzen auf. 2.6.1. Die Ungleichung von Chebychev. Wir beginnen mit einem heuristischen Exkurs in die Stochastik, um die Ungleichung von Chebychev (Tschebyscheff) zu motivieren. Die Ungleichung selbst l¨asst sich aber auch rein analytisch formulieren und beweisen. Und in dieser Form werden wir sie am Ende weiterverwenden. Intuitiv betrachtet ist eine (reellwertige) Zufallsvariable X eine reelle Zahl, die das Ergebnis eines Zufallsexperimentes ist. Wenn man das Experiment wiederholt, kann jedesmal eine andere Zahl (“Realisierung”) von X als Ergebnis auftreten. Die Dichtefunktion ρ einer Zufallsvariablen bestimmt, welche Realisierungen wahrscheinlich sind und welche nicht, und zwar gilt: Ist −∞ ≤ a < b ≤ ∞, dann ist die Wahrscheinlichkeit, dass X einen Wert im Intervall [a, b] annimmt, gleich Z b P(a ≤ X ≤ b) = ρ(t) dt. a
(Nicht jede Zufallsvariable besitzt aber eine Dichtefunktion.) Dichtefunktionen erkennt man an zwei Eigenschaften: Z ∞ ρ(t) dt = 1, −∞
ρ(t) ≥ 0 f¨ ur fast alle t ∈ R. Die erste Eigenschaft sagt, dass die Zufallsvariable mit Sicherheit (Wahrscheinlichkeit 1) einen Wert zwischen −∞ und ∞ annimmt. Die zweite Eigenschaft stammt daher, dass Wahrscheinlichkeiten nie negativ sein k¨onnen. Sei nun X eine Zufallsvariable mit Dichtefunktion ρ. Wir definieren den Erwartungswert und die Varianz: R∞ (a) Sei −∞ |t|ρ(t) dt < ∞. Dann ist der Erwartungswert von X Z ∞ tρ(t) dt. E(X) = (b) Sei zus¨atzlich
R∞
−∞ 2
t ρ(t) dt < ∞. Dann ist die Varianz von X Z ∞ Var(X) = (t − E(X))2 ρ(t) dt.
−∞
−∞
Bemerkung 2.6.1. Wenn die Varianz existiert, dann gilt Z ∞ Var(X) = t2 ρ(t) dt − [E(X)]2 . −∞
47
Beweis.
= = = =
Var(X) Z ∞ (t − E(X))2 ρ(t) dt −∞ Z ∞ Z ∞ Z ∞ t2 ρ(t) dt − 2E(X) tρ(t) dt + [E(X)]2 ρ(t) dt −∞ −∞ −∞ Z ∞ t2 ρ(t) dt − 2E(X)E(X) + [E(X)]2 −∞ Z ∞ t2 ρ(t) dt − [E(X)]2 . −∞
¤
Der Erwartungswert ist eine Kenngr¨oße der Lage. Wenn man das Experiment sehr oft wiederholt, und dann u ¨ber die erhaltenen Realisierungen von X den Mittelwert bildet, wird sich n¨aherungsweise der Erwartungswert einstellen. Die Varianz ist eine Kenngr¨oße der Streuung. Zufallsgr¨oßen mit geringer Varianz liefern meist Realisierungen nahe am Mittelwert. Bei großer Varianz weichen die Realisierungen ¨ oft weit nach oben und unten vom Mittelwert ab. Ubrigens kann man auf einem abstrakteren Weg Erwartungswert und Varianz auch f¨ ur manche Zufallsvariablen definieren, die keine Dichtefunktion besitzen. Die Chebychev’sche Ungleichung gibt an, wie wahrscheinlich große Abweichungen vom Mittelwert sind: Sei X eine reelle Zufallsvariable mit Erwartungswert E(X) und Varianz Var(X). Sei ² > 0. Die Wahrscheinlichkeit, dass X Werte im Intervall [E(X) − ², E(X) + ²] annimmt, ist dann P(E(X) − ² ≤ X ≤ E(X) + ²) ≥ 1 −
Var(X) . ²2
Je kleiner die Varianz, und je gr¨oßer ², desto gr¨oßer die Wahrscheinlichkeit, dass die Realisierung nicht weiter als ² vom Erwartungswert entfernt liegt. Die Chebychev’sche Ungleichung gilt f¨ ur alle Zufallsvariablen, welche Erwartungswert und Varianz besitzen. Weil sie f¨ ur alle Zufallsvariablen gilt, ist sie ziemlich unscharf. Weiß man zum Beispiel, dass die Zufallsvariable ann¨ahernd normalverteilt p ist, gilt eine viel sch¨arfere Absch¨atzung. Sei σ = Var(X) die Standardabweichung von X. Dann gilt: ( ≥ 1 − 41 = 0.75 nach Chebychev, P(X ∈ [E(X) − 2σ, E(X) + 2σ]) ≈ 0.95 bei Normalverteilung.
Wir geben hier die analytische Formulierung der Chebychev’schen Ungleichung.
48
Satz 2.6.2 (Ungleichung von Chebychev). Sei ρ ∈ L1 (R, R) eine Dichtefunktion mit Erwartungswert t und Varianz σ 2 , das heißt: Z ∞ ρ(t) dt = 1, −∞
ρ(t) ≥ 0 f¨ ur fast alle t ∈ R, Z ∞ Z ∞ |t|ρ(t) dt < ∞, t= tρ(t) dt, −∞ −∞ Z ∞ Z ∞ t2 ρ(t) dt < ∞, (t − t)2 dt. σ2 = −∞
−∞
Dann gilt f¨ ur jedes ² > 0: Z
t+²
(2.6.1)
ρ(t) dt ≥ 1 − t−²
Beweis.
Z σ
2
∞
σ2 . ²2
(t − t)2 ρ(t) dt
= −∞
Z
(t − t)2 ρ(t) dt
≥ R\[t−²,t+²]
Z
²2 ρ(t) dt
≥ R\[t−²,t+²]
Ã
=
2
²
Z
!
t+²
ρ(t) dt .
1− t−²
¤ Wir verwenden die Chebychev’sche Ungleichung, um folgendes Lemma zu beweisen: Lemma 2.6.3. Sei f : R → C meßbar, beschr¨ ankt, und stetig an einem bestimmten Punkt t0 ∈ R. Sei ρn eine Folge von Dichtefunktionen mit Erwartungswerten tn und Varianzen σn2 , das heißt: Z ∞ ρn (t) dt = 1, ρn (t) ≥ 0, −∞ Z ∞ Z ∞ |t|ρ(t) dt < ∞, tn := tρ(t) dt, −∞ −∞ Z ∞ Z ∞ t2 ρ(t) dt < ∞, σn2 := (t − tn )2 ρ(t) dt. −∞
−∞
Es konvergiere tn → t0 und
σn2
→ 0. Dann gilt Z ∞ lim f (t)ρn (t) dt = f (t0 ).
n→∞
−∞
Beweis. Sei f (t) ≤ M f¨ ur alle t ∈ R. F¨ ur ² > 0 finden wir zun¨achst δ > 0 so, dass ² |f (t) − f (t0 )| ≤ falls |t − t0 | < δ. 2
49
Wir w¨ahlen n ausreichend groß, sodass |tn − t0 | < σn2 <
δ , 2
²δ 2 . 16M
Weil [tn − δ/2, tn +δ/2] ⊂ [t0 − δ, t0 + δ], gilt nach der Chebychev’schen Ungleichung Z tn +δ/2 Z t0 +δ ² σn2 ≥1− . ρn (t) dt ≥ ρn (t) dt ≥ 1 − 2 (δ/2) 4M t0 −δ tn −δ/2 R∞ Wir beachten, dass −∞ ρn (t) dt = 1 und sch¨atzen ab: ¯Z ∞ ¯ ¯ ¯ ¯ f (t)ρ(t) dt − f (t0 )¯¯ ¯ ¯ ¯Z−∞ ¯ ¯ ∞ ¯ (f (t) − f (t0 ))ρ(t) dt¯¯ = ¯ Z
−∞
Z
≤ |t−t0 |>δ
Ã
≤
2M
Z
!
t0 +δ
1−
ρ(t) dt t0 −δ
≤
t0 +δ
|f (t) − f (t0 )|ρ(t) dt +
2M
+
² 2
Z
|f (t) − f (t0 )|ρ(t) dt t0 −δ t0 +δ
ρ(t) dt t0 −δ
² ² + = ². 4M 2 ¤
2.6.2. Die Umkehrformel von Post-Widder. Wir gehen von einer beschr¨ankten Funktion f : [0, ∞) → C aus, die an t0 > 0 stetig ist. Die Post-Widder-Formel dient zur Berechnung von f (t0 ) aus der Laplacetransformierten fˆ. Wir leiten sie in zwei Schritten ab: (1) Wir konstruieren eine geeignete Folge von Dichtefunktionen ρn auf [0, ∞), deren Erwartungswerte gegen t0 und deren Varianzen gegen 0 gehen. Damit geht nach Lemma 2.6.3 das Integral Z ∞ ρn (t)f (t) dt → f (t0 ). 0
(2) Wir zeigen, dass sich das obige Integral aus den h¨oheren Ableitungen von fˆ berechnen l¨aßt.
Lemma 2.6.4. Sei t0 > 0. F¨ ur n = 1, 2, 3, · · · definieren wir n , λn = t0 tn λn+1 n ρn (t) = e−λn t . n!
50
Dann sind die Funktionen ρn : [0, ∞) → R Dichtefunktionen, ihre Erwartungswerte konvergieren gegen t0 , und ihre Varianzen konvergieren gegen Null, das heißt: ρn (t) ≥ 0 f¨ ur alle t ≥ 0, Z ∞ ρn (t) dt = 1, 0 Z ∞ tn = tρn (t) dt → t0 , Z0 ∞ t2 ρn (t) dt − t2n → 0. σn2 = 0
Beweis. Offensichtlich ist ρn (t) ≥ 0 f¨ ur t ≥ 0. Wir verwenden die Definition der Laplacetransformation und Satz 2.2.7 zur Berechnung von Integral, Erwartungswert und Varianz: Z ∞ Z ∞ c tn tn n+1 ρn (t) dt = λn e−λn t dt = λn+1 (λn ) = λn+1 λ−n−1 = 1. n n n n! n! 0 0 Z ∞ Z ∞ \ tn+1 tn+1 (n + 1) tn = tρn (t) dt = λn+1 e−λn t dt = λn+1 (λn ) n n n! (n + 1)! 0 0 n+1 n+1 = λn+1 (n + 1)λn−n−2 = = t0 → t0 . n λn n Z ∞ Z ∞ n+2 −λn t t σn2 = dt − t2n t2 ρn (t) dt − t2n = λn+1 e n n! 0 0 \ tn+2 (n + 1)(n + 2) = λn+1 (λn ) − t2n n (n + 2)! (n + 1)2 − (n + 1)(n + 2)λ−n−3 = λn+1 n n λ2n n+1 n+1 2 = = t → 0. λ2n n2 0 ¤ Lemma 2.6.5. Sei f ∈ L1ω ([0, ∞), C), sei t0 > 0. Wir definieren λn , ρn wie in Lemma 2.6.4. Dann ist Z ∞ λn+1 dn ˆ ρn (t)f (t) dt = (−1)n n f (λn ). n! dλn 0 Beweis. Die Ableitungen von fˆ kennen wir aus Satz 2.2.2, (2.2.1): λn+1 dn ˆ n f (λn ) n! dλn Z ∞ n+1 λ tn e−λn t f (t) dt = (−1)n n (−1)n n! 0 Z ∞ n+1 n λn t −λn t = e f (t) dt n! Z0 ∞ = ρn (t)f (t) dt. (−1)n
0
51
¤ Jetzt m¨ ussen wir nur noch die Hilfss¨atze richtig kombinieren! Satz 2.6.6 (Umkehrformel von Post-Widder). Sei f : [0, ∞) → C meßbar und beschr¨ ankt. Sei t0 > 0 und f stetig an der Stelle t0 . Dann gilt µ ¶n+1 n d ˆ n n n 1 f (t0 ) = lim (−1) f ( ). n→∞ n! t0 dλn t0 Beweis. Wir definieren λn und ρn wie in Lemma 2.6.4. Wir wenden zuerst Lemma 2.6.3 mit Hilfe von Lemma 2.6.4 an, anschließend stellen wir mit Lemma 2.6.5 die Beziehung zu fˆ her. Am Ende setzen wir noch die Definition von λn ein: Z ∞ f (t0 ) = lim ρn (t)f (t) dt n→∞
= =
0
λn+1 dn ˆ n f (λn ) n→∞ n! dλn µ ¶n+1 n 1 n d ˆ n lim (−1)n f ( ). n→∞ n! t0 dλn t0 lim (−1)n
¤ Bemerkung 2.6.7. Wir haben die Post-Widder-Formel f¨ ur beschr¨ ankte Funktionen f bewiesen. Diese Annahme l¨ asst sich mit etwas technischem Aufwand beseitigen. Nicht u ussig dagegen ist die Forderung nach Stetigkeit an t0 . Eine ¨berfl¨ L1ω -Funktion ist ja nur bis auf Eindeutigkeit fast u ¨berall bestimmt. Die Stetigkeit an t0 bewirkt, dass der Wert von f (t0 ) eindeutig festliegt. 2.6.3. Die Post-Widder-Formel und die Exponentialmatrix etA . Die Post-Widder-Formel ist ziemlich unbequem, weil man nicht nur die Laplacetransformierte, sondern auch ihre Ableitungen ben¨otigt. Anfangswertprobleme f¨ ur Systeme von linearen Differentialgleichungen sind ein Fall, in dem die Formel zu einem verwendbaren Resultat f¨ uhrt. Betrachten wir das Anfangswertproblem d x(t) = Ax(t), x(0) = x0 dt mit einer konstanten Matrix A ∈ Cn×n und einem Anfangsvektor x0 ∈ Cn . Ein bekannter Potenzreihenansatz f¨ uhrt zur L¨osungsformel x(t) = etA x0 wobei die Exponentialmatrix durch eine absolut konvergente Reihe definiert ist: ∞ k X t k etA = A . k! k=0
Wir kennen aber bereits auch einen Zugang u ¨ber die Laplacetransformation: Wir wissen bereits, dass die Laplacetransformierte der L¨osung durch die Resolvente von A gegeben ist (Satz 2.3.8): tA = (λ − A)−1 . ec Um die Post-Widder-Formel anzuwenden, m¨ ussen wir die Resolvente differenzieren:
52
Lemma 2.6.8. Sei A ∈ Cn×n . F¨ ur alle λ, die nicht Eigenwerte von A sind, gilt n d (λ − A)−1 = (−1)n n!(λ − A)−n−1 . dλn Beweis. Da die Komponenten des Matrixproduktes aus den Komponenten der einzelnen Matrizen durch Multiplikation und Addition aufgebaut werden, gilt auch f¨ ur das Matrixprodukt die Produktregel. Daraus folgt auch sofort die Potenzregel. Wir berechnen zun¨achst die erste Ableitung der Resolvente durch implizites Differenzieren. 1 ist hier die Einheitsmatrix: d d (1) = [(λ − A)(λ − A)−1 ], dλ dλ d d 0 = [ (λ − A)](λ − A)−1 + (λ − A)[ (λ − A)−1 ], dλ dλ d 0 = 1(λ − A)−1 + (λ − A)[ (λ − A)−1 ], dλ d 0 = (λ − A)−2 + (λ − A)−1 , dλ d −(λ − A)−2 = (λ − A)−1 . dλ Wir setzen durch vollst¨andige Induktion fort. Induktionsschritt von n auf n + 1:
=
dn+1 (λ − A)−1 dλn+1 d (−1)n n! [(λ − A)−1 ]n+1 dλ
d (λ − A)−1 dλ = (−1)n (n + 1)! [(λ − A)−1 ]n (−1)(λ − A)−2
= (−1)n n!(n + 1) [(λ − A)−1 ]n
= (−1)n+1 (n + 1)! (λ − A)−n−2 . ¤ Satz 2.6.9. Sei A ∈ Cn×n . Die Exponentialmatrix etA l¨ asst sich schreiben ¶−n µ t etA = lim 1 − A . n→∞ n Beweis. Wir verwenden die Post-Widder-Formel, Lemma 2.6.8, und einige einfache Rechenschritte: 1 ³ n ´n+1 dn n ( − A)−1 etA = lim (−1)n n→∞ n! t dλn t 1 ³ n ´n+1 n = lim (−1)n (−1)n n! ( − A)−n−1 n→∞ n! t t ³n n ´n+1 −1 = lim ( − A) n→∞ t t µ ¶−n−1 t = lim 1 − A n→∞ n ¶−n µ ¶−1 µ t t 1− A = lim 1 − A . n→∞ n n
53
F¨ ur n → ∞ geht aber
µ ¶−1 t 1− A → I, n und damit folgt die gesuchte Formel.
¤
Bemerkung 2.6.10. Die Darstellung der Exponentialmatrix als Produkt von Resolventen hat einen wesentlichen Vorteil gegen¨ uber der Exponentialreihe, wenn man von gew¨ ohnlichen Differentialgleichungen zu linearen partiellen Differentialgleichungen u ¨bergeht, zum Beispiel ∂ u(t, x) = ∆u(t, x), u(0, x) = u0 (x). ∂t Hier wird die Matrix A durch einen partiellen Differentialoperator (z.B. ∆) ersetzt. In der Exponentialreihe treten nun beliebig hohe Potenzen von ∆ auf, sodass sie nur existiert, wenn die Anfangsfunktion u0 beliebig oft differenzierbar ist. Dagegen ist die Resolvente (λ − ∆)−1 u0 die L¨ osung eines elliptischen Problems, die auch f¨ ur rauhe Funktionen u0 existiert. Damit l¨ aßt sich die Formel µ ¶−n t u(t, ·) = lim 1 − ∆ u0 (·) n→∞ n auch auf partielle Differentialgleichungen sinnvoll verallgemeinern. 2.6.4. Der Eindeutigkeitssatz. Wir haben bereits in Satz 2.2.8 formuliert, dass verschiedene Funktionen auch verschiedene Laplacetransformierte haben. Von diesem Eindeutigkeitssatz haben wir schon oft Gebrauch gemacht, den Beweis aber bis jetzt verschoben. Mit Hilfe der Post-Widder-Formel ist er leicht zu beweisen. Satz 2.6.11 (Eindeutigkeit der Laplacetransformation). Seien f, g ∈ L1ω , und sei fˆ = gˆ auf einer Teilmenge U ⊂ {λ ∈ C | <(λ) > ω}. Die Menge U besitze einen H¨ aufungspunkt. Dann ist f (t) = g(t) f¨ ur fast alle t ∈ [0, ∞). Beweis. Wir setzen v = f − g und m¨ ussen zeigen: v(t) = 0 f¨ ur fast alle t. Auf U gilt vˆ(λ) = 0, und da U einen H¨aufungspunkt besitzt und vˆ analytisch ist, gilt nach dem Prinzip der isolierten Nullstellen: vˆ(λ) = 0 auf der ganzen Halbebene <(λ) ≥ ω. Allerdings k¨onnen wir die Post-Widder-Formel nicht direkt auf v anwenden, weil wir nicht wissen, ob v beschr¨ ankt und stetig ist. Wir helfen uns mit einem Trick und definieren: Z t w(t) = e−ωs v(s) ds. 0
Da v ∈ L1ω ([0, ∞), C), folgt sofort, dass w beschr¨ankt ist. Als unbestimmtes Integral ist w auch u ¨berall stetig. Nach Satz 2.2.4 bestimmt man leicht die Laplacetransformierte von w: µZ t \ ¶ 1 1 \ −ωs v(t))(λ) = vˆ(λ + ω) = 0. w(λ) ˆ = e v(s) ds (λ) = (e−ωt λ λ 0 F¨ ur w gilt aber die Post-Widder-Formel, und da w ˆ =0u ¨berall gilt, ist auch w(t) = 0 f¨ ur alle t. Durch Differenzieren erh¨alt man nun fast u berall ¨ ωt d v(t) = e w(t) = 0. dt
54
¤ Auch den Satz von Titchmarsh u ¨ber die Nullteilerfreiheit der Faltung auf der Halbgeraden kann man jetzt leicht beweisen: Satz 2.6.12 (Satz von Titchmarsh). Der Ring (L1ω ([0, ∞), C), +, ∗) ist nullteilerfrei. Beweis. Seien f, g ∈ L1ω ([0, ∞), C) und sei f ∗ g = 0. Wir m¨ ussen zeigen: Entweder f oder g ist konstant gleich null. Nach dem Faltungssatz gilt in der Halbebene <(λ) ≥ ω: fˆ(λ)ˆ g (λ) = f[ ∗ g(λ) = 0. Angenommen, f ist nicht konstant null. Dann ist auch fˆ, wegen des Eindeutigkeitssatzes, nicht konstant null, und besitzt folglich nur isolierte Nullstellen. Insbesondere gibt es eine offene Menge U , auf der fˆ(λ) nirgends verschwindet. Daher muss auf ganz U gelten: gˆ(λ) = 0. Und aus dem Eindeutigkeitssatz folgt jetzt, dass g(t) = 0 f¨ ur fast alle t > 0 gilt. ¤
2.7. Komplexe Inversionsformel. Wir geben eine zweite Umkehrformel an, die keine Ableitungen der Laplacetransformierten ben¨otigt. Sie kommt eigentlich aus der Theorie der Fouriertransformation, und erst da werden wir sie voll verstehen. 2.7.1. H¨ olderstetigkeit. Eine der Voraussetzungen f¨ ur die komplexe Umkehrformel wird eine versch¨arfte Art von Stetigkeit der Funktion f sein. Sie kennen den Begriff der Lipschitzstetigkeit: Definition 2.7.1. Sei J ein Intervall und f : J → C eine Funktion, und sei t0 ∈ J. Dann heißt f lipschitzstetig an t0 , wenn es eine Konstante M gibt, sodass in einer hinreichend kleinen Umgebung U von t0 gilt: |f (t) − f (s)| ≤ M |t − s|
(s, t ∈ U ).
Wir definieren jetzt eine Form von Stetigkeit, die st¨arker als stetig, aber nicht so stark wie lipschitzstetig ist: Definition 2.7.2. Sei J ein Intervall und f : J → C eine Funktion, und sei t0 ∈ J. Dann heißt f h¨ olderstetig an t0 mit Exponent α ∈ (0, 1), wenn es eine Konstante M gibt, sodass in einer hinreichend kleinen Umgebung U von t0 gilt: |f (t) − f (s)| ≤ M |t − s|α
(s, t, ∈ U ).
Kann f¨ ur U der gesamte Definitionsbereich J genommen werden, so heißt f h¨ olderstetig auf J und wir schreiben f ∈ C α (J, C). Mit der Norm kf kC α = max{kf kL∞ , sup |t − s|−α |f (t) − f (s)|} s6=t∈J
α
wird C (J, C) ein Banachraum, d.h., ein vollst¨ andiger normierter Vektorraum.
55
Beachten Sie: Je gr¨oßer der H¨olderexponent α, desto st¨arker ist die Bedingung. H¨olderstetigkeit mit Exponent α = 1 ist Lipschitzstetigkeit. Stetig differenzierbare Funktionen sind immer lipschitzstetig.
2.7.2. Die komplexe Umkehrformel. Der Beweis der komplexen Umkehrformel wird wieder u ¨ber mehrere Hilfss¨atze aufgebaut. Zur Formulierung ben¨otigen wir den Begriff des Hauptwertintegrals (principal value integral): Definition 2.7.3. Sei f : R → C eine meßbare Funktion. Das Hauptwertintegral von f ist das uneigentliche Integral Z
Z
∞
PV–
T
f (s) ds = lim
T →∞
−∞
f (s) ds. −T
Bemerkung 2.7.4. Ist f Lebesgue-integrierbar, ist also Z
∞
|f (s)| ds < ∞, −∞
dann ist das Hauptwertintegral einfach das Lebesgue-Integral Z
Z
∞
PV–
∞
f (s) ds = −∞
f (s) ds. −∞
Beweis. In diesem Fall kann man absch¨atzen Z
Z
∞
|
f (s) ds − −∞
Z
T
f (s) ds| ≤ −T
|f (s)| ds → 0. R\[−T,T ]
¤
Lemma 2.7.5.
Z
∞
PV– −∞
sin(t) dt = π. t
Beweis. Wir verwenden eine Methode aus der Funktionentheorie. Seien 0 < ² < T < ∞. Der Weg Γ wird aus vier Teilst¨ ucken zusammengesetzt: γ1 γ2 γ3 γ4
Das Geradenst¨ uck auf der imagin¨aren Achse γ1 (t) = it f¨ ur t ∈ [², T ], der Halbkreis in der linken Halbebene γ2 (t) = T eit f¨ ur t ∈ [π/2, 3π/2], das Geradenst¨ uck auf der imagin¨aren Achse γ3 (t) = it f¨ ur t ∈ [−T, −²], der Halbkreis in der linken Halbebene γ4 (t) = ²e−it f¨ ur t ∈ [π/2, 3π/2].
56
Im iT
iε Re −iεε
−iT Da der Weg Γ den Nullpunkt nicht umschließt, und die Funktion ez /z u ¨berall außer in 0 analytisch ist, gilt nach dem Cauchyschen Integralsatz Z 1 z 0 = e dz z Γ Z T Z 3π/2 1 it 1 T eit = e i dt + e iT eit dt T eit ² it π/2 Z −² Z 3π/2 −it 1 it 1 + e i dt + e²e (−i²)e−it dt −it it ²e −T π/2 "Z Z 3π/2 Z 3π/2 Z T# −² −it 1 it T eit e dt + i e dt − i e²e dt. = + t π/2 π/2 −T ² F¨ ur T → ∞ konvergiert das Integral auf dem Halbkreis γ2 : Z 3π/2 it i eT e dt → 0. π/2
Beachten Sie, dass der Integrand durch 1 beschr¨ankt ist, und gegen Null geht, da <(T eit ) → −∞. F¨ ur ² → 0+ konvergiert das Integral auf dem Halbkreis γ4 : Z 3π/2 −it −i e²e dt → −iπ. π/2
Der Integrand geht hier gegen −i. Damit erhalten wir im Grenz¨ ubergang "Z # Z −² T 1 it + e dt − πi = 0. lim lim T →∞ ²→0+ t −T ² Wir betrachten davon den Imagin¨arteil: "Z Z −² lim lim + T →∞ ²→0+
−T
²
T
#
1 sin(t)dt = π. t
57
Den Grenzwert f¨ ur ² → 0+ kann man unbesorgt nehmen, da sin(t)/t bei Null durch 1 stetig fortgesetzt werden kann. ¤ Lemma 2.7.6. Sei g ∈ L1 ([0, ∞), C) und t0 > 0. Dann ist Z ∞ lim sin(T (t − t0 ))g(t) dt = 0. T →∞
0
Beweis. OBdA nehmen wir an, dass g reellwertig ist, sonst behandeln wir Realteil und Imagin¨arteil separat. Das Integral ist dann der Imagin¨arteil von Z ∞ eitT eiT t0 g(t) dt = eiT t0 gˆ(−iT ). 0
Nach Satz 2.5.1 gilt aber lim |eiT t0 gˆ(−iT )| = lim |ˆ g (−iT )| = 0.
T →∞
T →∞
¤ Wir formulieren nun die komplexe Umkehrformel: Satz 2.7.7 (Komplexe Umkehrformel der Laplacetransformation). Sei f ∈ L1ω ([0, ∞), C), sei t0 > 0 und f h¨ olderstetig an t0 mit einem Exponenten α ∈ (0, 1). Sei γ > ω. Dann existiert das folgende Hauptwertintegral und es gilt: Z ∞ 1 (2.7.1) f (t0 ) = PV– e(γ+is)t0 fˆ(γ + is) ds. 2π −∞ Beweis. Wir berechnen zun¨achst Z T e(γ+is)t0 fˆ(γ + is) ds Z
−T T
Z
∞
= Z
−T ∞
=
0
e(γ+is)t0 e−(γ+is)t f (t) dt ds Z
T
f (t) Z
0
e−(γ+is)(t−t0 ) ds dt
−T ∞
e−iT (t−t0 ) − eiT (−T −t0 ) dt −i(t − t0 ) 0 Z ∞ sin(T (t − t0 )) = 2 f (t)e−γ(t−t0 ) dt. t − t0 0
=
f (t)e−γ(t−t0 )
Wir haben also Z T Z 1 ∞ sin(T (t − t0 )) 1 (γ+is)t0 ˆ e f (γ + is) ds = f (t)e−γ(t−t0 ) dt. (2.7.2) 2π −T π 0 t − t0 Sei nun ² > 0. Wir n¨ utzen zun¨achst die H¨olderstetigkeit von f an t0 . Man kann leicht zeigen, dass auch f (t)e−γ(t−t0 ) h¨olderstetig ist, also gibt es eine Konstante M1 mit |f (t)e−γ(t−t0 ) − f (t0 )| < M1 |t − t0 |α falls |t − t0 | ausreichend klein ist. Wir w¨ahlen ein δ > 0 so, dass Z ² 1 t0 +δ M1 |t − t0 |α−1 dt < . π t0 −δ 3
58
Es folgt sofort (2.7.3) ¯ Z ¯ Z ¯ 1 t0 +δ 1 t0 +δ sin(T (t − t0 )) ¯¯ ² ¯ −γ(t−t0 ) sin(T (t − t0 )) f (t)e dt − f (t0 ) dt¯ < . ¯ ¯ π t0 −δ ¯ 3 t − t0 π t0 −δ t − t0 Eine einfache Variablensubstitution liefert Z Z 1 t0 +δ sin(T (t − t0 )) 1 T δ sin(s) ds. dt = π t0 −δ t − t0 π −T δ s Wegen Lemma 2.7.5 gibt es also ein T0 > 0, sodass f¨ ur T > T0 gilt: ¯ ¯ Z ¯ ¯ 1 t0 +δ sin(T (t − t0 )) ² ¯ ¯ (2.7.4) dt − f (t0 )¯ < . ¯f (t0 ) ¯ ¯ 3 π t0 −δ t − t0 Weil γ ≥ ω und f ∈ L1ω ([0, ∞), C) ist, liegt die folgende Funktion g in L1 ([0, ∞), C): ( 0 falls t ∈ [t0 − δ, t0 + δ], g(t) = 1 −γ(t−t0 ) f (t) sonst, t−t0 e Nach Lemma 2.7.6 gibt es ein T1 > 0 sodass f¨ ur T > T1 gilt: ¯Z ∞ ¯ ¯ 1 ¯¯ ¯ < ², g(t) sin(T (t − t )) dt 0 ¯ ¯ 3 π 0 das heißt: (2.7.5)
¯ Z ¯ ¯1 ¯ ² ¯ ¯ −γ(t−t0 ) sin(T (t − t0 )) f (t)e dt¯ < . ¯ ¯ π [0,∞)\[t0 −δ,t0 +δ] ¯ 3 t − t0
Sei nun T > max(T0 , T1 ). Wir verwenden (2.7.3), (2.7.4) und (2.7.5) in (2.7.2): ¯ ¯ ¯ 1 Z T ¯ ¯ ¯ (γ+is)t0 ˆ e f (γ + is) ds − f (t0 )¯ ¯ ¯ 2π −T ¯ ¯ ¯ Z ∞ ¯ ¯1 −γ(t−t0 ) sin(T (t − t0 )) ¯ f (t)e dt − f (t0 )¯¯ = ¯ π 0 t − t0 ¯ ¯ Z Z ¯ 1 t0 +δ 1 t0 +δ sin(T (t − t0 )) ¯¯ ¯ −γ(t−t0 ) sin(T (t − t0 )) ≤ ¯ f (t)e dt − f (t0 ) dt¯ ¯ π t0 −δ ¯ t − t0 π t0 −δ t − t0 ¯ ¯ Z ¯ ¯ 1 t0 +δ sin(T (t − t0 )) ¯ ¯ dt − f (t0 )¯ + ¯f (t0 ) ¯ ¯ π t0 −δ t − t0 ¯ ¯ Z ¯ ¯1 ¯ ¯ −γ(t−t0 ) sin(T (t − t0 )) f (t)e dt¯ +¯ ¯ ¯ π [0,∞)\[t0 −δ,t0 +δ] t − t0 ² ² ² + + = ². ≤ 3 3 3 ¤
59
2.7.3. Die komplexe Inversionsformel und die Exponentialmatrix. Auch die komplexe Umkehrformel liefert eine neue Darstellung der Exponentialmatrix etA : Satz 2.7.8. Sei A ∈ Cn×n , sei Γ eine geschlossene Kurve in C, die das gesamte Spektrum von A (d.i. die Menge der Eigenwerte von A) einmal im positiven Sinn uml¨ auft. Sei t > 0. Dann ist die Exponentialmatrix Z 1 tA e = eλt (λ − A)−1 dλ. 2πi Γ Beweis. Wir geben nur eine Beweisskizze. Sei γ gr¨oßer als der gr¨oßte Realteil der Eigenwerte von A. F¨ ur T > 0 konstruieren wir einen geschlossenen Weg ΘT aus den Teilst¨ ucken θ1 Das Geradenst¨ uck parallel zur imagin¨aren Achse θ1 (t) = γ + it f¨ ur t ∈ [−T, T ], θ2 der Halbkreis (zum Großteil in der linken Halbebene) θ2 (t) = γ + T eit f¨ ur t ∈ [π/2, 3π/2].
Im
Eigenwerte
Θ
Re Γ
Ist T ausreichend groß, uml¨auft der Weg ΘT das gesamte Spektrum von A einmal im positiven Sinn. Wenn λ vom Spektrum von A weg beschr¨ankt ist, gilt f¨ ur eine geeignete Konstante M > 0: k(λ − A)−1 k ≤
M . |λ|
Man kann dann zeigen, dass f¨ ur T → ∞ das Integral u ¨ber den Kreisbogen gegen Null geht: Z eλt (λ − A)−1 dλ → 0. θ2
60
Damit geht das Integral u ¨ber den geschlossenen Weg in ein Hauptwertintegral parallel zur imagin¨aren Achse u ¨ber: ¯ ¯ Z T ¯ 1 Z ¯ 1 ¯ ¯ λt −1 (γ+is)t −1 e (λ − A) dλ − e (γ + is − A) i ds¯ → 0. ¯ ¯ ¯ 2πi ΘT 2πi −T Das Integral auf der rechten Seite konvergiert aber nach der komplexen Umkehrformel gegen etA . Andererseits sind alle geschlossenen Kurven ΘT homotop, sodass die Integrale u ¨ber alle ΘT , unabh¨angig von T , denselben Wert haben. Folglich ist Z 1 etA = eλt (λ − A)−1 dλ. 2πi ΘT Da sich ΘT homotop auf Γ zusammenziehen l¨aßt, folgt der Satz.
¤
Man kann also die Exponentialfunktion einer Matrix durch ein Kurvenintegral definieren. Analog kann man auch andere Funktionen einer Matrix definieren: Definition 2.7.9. Sei A ∈ Cn×n , sei S das Spektrum (die Menge der Eigenwerte) von A und D ⊂ C ein Gebiet, das ganz S enth¨ alt. Sei f : D → C analytisch auf ganz D, und sei Γ eine geschlossene Kurve in D, die ganz S einmal im positiven Sinn uml¨ auft. Wir definieren Z 1 f (A) = f (λ)(λ − A)−1 dλ. 2πi Γ Bemerkung 2.7.10. Vergleichen Sie Definition 2.7.9 mit der Cauchyschen Formel: Sei f analytisch auf D, a ∈ D, und Γ eine Kurve in D, die a einmal im positiven Sinn uml¨ auft. Dann ist Z 1 1 f (a) = f (λ) dλ. 2πi Γ λ−a Analytische Funktionen lassen sich als Potenzreihen schreiben, und man k¨onnte versuchen, auch f (A), ebenso wie die Exponentialreihe, als Reihe von Potenzen von A zu schreiben. Solange diese Reihe konvergiert, liefert sie dieselben Werte wie Definition 2.7.9. Wiederum l¨aßt sich aber der Kalk¨ ul mit dem Kurvenintegral unter g¨ unstigen Umst¨anden auch auf unbeschr¨ankte Differentialoperatoren verallgemeinern.
61
3. Fourierreihen und Fouriertransformation diskreter Signale 3.1. Orthogonalsysteme im Hilbertraum. Fouriertransformation ist, abstrakt gesehen, die Zerlegung eines Signals in orthogonale Komponenten. Wir werden daher zun¨achst einige grundlegende Tatsachen u ¨ber Orthogonalit¨at aus der linearen Algebra wiederholen. 3.1.1. Hilbertr¨ aume. Definition 3.1.1. Sei H ein Vektorraum u ¨ber C. Eine Abbildung ( H ×H →C (a, b) 7→ ha, bi heißt inneres Produkt auf H, wenn gilt: (a) h·, ·i ist sesquilinear, das heißt, f¨ ur alle a, b, c ∈ H und alle α, β ∈ C gilt: hc, αa + βbi
= αhc, ai + βhc, bi,
hαa + βb, ci
= αha, ci + βhb, ci.
(b) h·, ·i ist hermitisch, das heißt, f¨ ur alle a, b ∈ H gilt ha, bi = hb, ai. (c) h·, ·i ist positiv definit, das heißt, f¨ ur alle a ∈ H \ {0} gilt ha, ai > 0. Bemerkung 3.1.2. (a) Manche Autoren heben Skalare aus der rechten Seite des inneren Produktes konjugiert komplex heraus, und daf¨ ur Skalare aus der linken Seite unkonjugiert. (b) In reellen Vektorr¨ aumen werden innere Produkte ebenso definiert, wobei die Konjugation wegf¨ allt: Die Konjugierte einer reellen Zahl ist immer dieselbe Zahl. Definition 3.1.3. Sei (H, h·, ·i) ein Vektorraum mit einem inneren Produkt. Durch die folgende Definition wird eine Norm auf H eingef¨ uhrt: p kak = ha, ai. Eine Teilmenge M ⊂ H heißt beschr¨ ankt, wenn gilt sup kak < ∞. a∈M
Eine Folge (an ) in H konvergiert bez¨ uglich dieser Norm gegen einen Grenzwert a, wenn gilt lim kan − ak = 0. n→∞ P∞ Pk Eine Reihe n=0 an hat einen Grenzwert s, wenn die Partialsummen sk = n=0 an gegen s konvergieren. Eine Cauchyfolge in H ist eine Folge (an ) mit der Eigenschaft (∀² > 0) (∃n0 ∈ N) (∀m, n ≥ n0 ) kam − an k < ².
62
Wenn H vollst¨ andig ist, d.h., wenn jede Cauchyfolge in H einen Grenzwert besitzt, dann heißt H ein Hilbertraum.
Lemma 3.1.4. Sei (H, h·, ·i) Vektorraum mit innerem Produkt. (a) Es gilt die Cauchy-Schwarzsche Ungleichung: F¨ ur alle x, y ∈ H ist |hx, yi| ≤ kxk · kyk. (b) Es gelten die Eigenschaften der Norm: kxk ≥ 0 mit Gleichheit nur falls x = 0, kλxk = |λ| · kxk f¨ ur alle λ ∈ C, x ∈ H, kx + yk ≤ kxk + kyk (Dreiecksungleichung). (c) Norm und inneres Produkt sind stetige Funktionen, das heißt: Seien (xn ), (yn ) Folgen in H mit Grenzwerten x, y. Dann gilt limn→∞ kxn k = kxk und limn→∞ hxn , yn i = hx, yi. Beweis. (a) und (b) Diese Eigenschaften sind im endlichdimensionalen Raum aus der linearen Algebra wohlbekannt. Die Verallgemeinerung auf den unendlichdimensionalen Fall ist fast trivial: Der von x, y aufgespannte Unterraum ist zweidimensional. (c) Wegen der Dreiecksungleichung gilt kxn k − kx − xn k ≤ kxk ≤ kxn k + kx − xn k. Nach Definition der Konvergenz in H ist aber limn→∞ kx − xn k = 0. Wir folgern unmittelbar: lim sup kxn k ≤ kxk ≤ lim inf kxn k. n→∞
n→∞
Damit folgt die Stetigkeit der Norm. Die Stetigkeit des inneren Produktes erhalten wir mit Hilfe der Cauchy-Schwarzschen Ungleichung, unter Ben¨ utzung der Stetigkeit der Norm: ≤
|hxn , yn i − hx, yi| = |hxn , yn − yi + hxn − x, yi| kxn k · kyn − yk + kxn − xk · kyk → kxk · 0 + 0 · kyk = 0. ¤
Die meisten Eigenschaften der Grenzwerte in R oder C sowie in endlichdimensionalen R¨aumen lassen sich ganz analog auch f¨ ur unendlichdimensionale normierte Vektorr¨aume beweisen. So hat jede Folge h¨ochstens einen Grenzwert. Konvergente Folgen sind immer Cauchyfolgen und beschr¨ankt. Einige der wichtigsten Unterschiede zwischen unendlichdimensionalen und endlichdimensionalen normierten R¨aumen sind: In unendlichdimensionalen normierten Raum ist nicht jede abgeschlossene, beschr¨ankte Menge kompakt. Auch sind dort nicht alle Normen ¨aquivalent, und nicht alle Unterr¨aume abgeschlossen. Wichtige Beispiele von Hilbertr¨aumen sind die endlichdimensionalen R¨aume Rn und Cn , der bereits in Definition 1.1.4 eingef¨ uhre Raum L2 ([a, b], C), und der fol2 gende Raum ` (I, C):
63
Definition 3.1.5. Sei I eine abz¨ ahlbare Indexmenge (typischerweise {1, · · · , N }, N oder Z). Mit `2 (I, C) bezeichnen wir den Raum der quadratisch summierbaren Folgen: ( ) X 2 2 ` (I, C) = (ξn )n∈I | ξn ∈ C, |ξn | < ∞ , n∈I
mit der Norm und dem inneren Produkt sX X |ξn |2 , h(ξn ), (ηn )i = k(ξn )k = ξn ηn . n∈I
n∈I 2
Bemerkung 3.1.6. Man kann zeigen: ` (I, C) mit der komponentenweisen Addition und Multiplikation ist ein Vektorraum ist. Durch h·, ·i ist ein inneres Produkt definiert. Es gilt auch Vollst¨ andigkeit. 3.1.2. Orthogonale Projektion. Definition 3.1.7. Sei H ein Raum mit innerem Produkt, sei W ein Unterraum von H. Sei x ∈ H. Wenn es einen Vektor w ∈ W gibt, sodass hx − w, vi = 0 f¨ ur alle v ∈ W gilt, dann heißt w die orthogonale Projektion von x auf W . Lemma 3.1.8. Sei H ein Raum mit innerem Produkt, sei W ein Unterraum von H. Sei x ∈ H. (a) Sei w orthogonale Projektion von x auf W . Dann ist w der n¨ achste Vektor an x aus W , das heißt, f¨ ur alle v ∈ W \ {w} gilt kx − wk < kx − vk. (b) Es kann h¨ ochstens eine orthogonale Projektion von x auf W geben. (c) Ist w orthogonale Projektion von x auf W , so gilt kwk ≤ kxk. Gleichheit gilt genau dann, wenn w = x, also x ∈ W . Beweis. (a) Sei v ∈ W , w 6= v. Dann ist auch w − v ∈ W , und damit ist x − w orthogonal auf w − v. Nach Pythagoras gilt dann kx − wk2 < kx − wk2 + kw − vk2 = kx − w + w − vk2 = kx − vk2 . (b) folgt unmittelbar aus (a). (c) Da x − w orthogonal auf w steht, gilt auch (nach Pythagoras) kwk2 ≤ kwk2 + kx − wk2 = kw + x − wk2 = kxk2 . Gleichheit gilt nur, wenn kx − wk2 = 0, also x = w.
¤
Definition 3.1.9. Sei H ein Vektorraum mit innerem Produkt. Ein endliches oder abz¨ ahlbares System von Vektoren (an ) in H heißt Orthonormalsystem, wenn f¨ ur alle m, n gilt ( 1 falls m = n, ham , an i = δm,n := 0 sonst. Verwechseln Sie δm,n aus dieser Definition, das sogenannte Kronecker-Delta, nicht mit dem Diracschen Delta-Impuls. Satz 3.1.10. Sei H ein Raum mit innerem Produkt, sei (an )N n=1 ein endliches Orthonormalsystem in H, und W der von (a1 , · · · , aN ) aufgespannte Teilraum. Sei x ∈ H.
64
PN PN (a) Ist γn ∈ C f¨ ur n = 1 · · · N , so gilt k n=1 γn an k2 = n=1 |γn |2 . (b) Die orthogonale Projektion w von x auf W berechnet sich nach der Formel PN w = n=1 γn an mit den Koeffizienten γn = han , xi. PN Beweis. (a) Sei w = n=1 γn an . Wir berechnen kwk2 = h
N X
N X
γm am ,
m=1
=
N X
N X
γn an i =
n=1
γm
∞ X
m=1
γn δm,n =
n=1
m=1
γm
N X
∞ X
γm γm =
m=1
γn ham , an i
n=1 N X
|γm |2 .
m=1
(b) Wir zeigen, dass die Summe eine orthogonale Projektion definiert. Sei also PN PN w = urlich ist w ∈ W . Sei nun v = n=1 γn an Nat¨ n=1 αn an ein beliebiger Vektor aus W . Dann ist hv, x − wi = h
N X
αm am , x −
m=1
=
n X
αm [γm −
m=1
N X
γn a n i =
n=1 N X
αm ham , xi −
m=1
γn δm,n ] =
n=1
N X
n X
N X N X
αm γn ham , an i
m=1 n=1
αm [γm − γm ] = 0.
m=1
¤
3.2. Fourierreihen. 3.2.1. Fourierreihen bez¨ uglich Orthonormalsystemen. Wir machen nun den formalen Sprung von endlichen Summen zu unendlichen Reihen und ihrer Konvergenz im Hilbertraum. Lemma 3.2.1. Sei (H, h·, ·i) ein Hilbertraum, und sei (an )n∈N ein Orthonormalsystem in H. Seien γn ∈ C. Dann gilt: P∞ P∞ Die Reihe n=0 γn an konvergiert genau dann in H, wenn gilt: n=0 |γn |2 < ∞, d.h., wenn (γn ) ∈ `2 (N, C). In diesem Fall gilt ∞ ∞ X X k γn an k2 = |γn |2 . n=0
n=1
Pk Beweis. Wir betrachten die Partialsummen sk = n=0 γn an der Reihe im HilbertPk raum, und die Partialsummen σk = n=0 |γn |2 in R. Wegen der Vollst¨andigkeit von H haben die Partialsummen sk genau dann einen Grenzwert in H, wenn sk eine Cauchyfolge ist. Beachten Sie, dass wir in der folgenden Rechnung nur endliche Summen haben, sodass Satz 3.1.10 angewendet werden kann. Sei m < k. ksm − sk k2 = k
m X n=k+1
γn an k2 =
m X
|γn |2 = σm − σk .
n=k+1
Wir folgern sofort, dass (sk ) genau dann eine Cauchyfolge ist, wenn (σk ) eine Cauchyfolge ist.
65
P∞ Nehmen wir nun an, dass sk einen Grenzwert w besitzt, also w = n=0 γn an . Wegen der Stetigkeit der Norm (Lemma 3.1.4) folgt, wieder unter Verwendung von Satz 3.1.10 f¨ ur die endliche Partialsumme, v v u k u∞ uX uX kwk = lim ks k = lim t |γ |2 = t |γ |2 . k→∞
k
k→∞
n
n=0
n
n=0
¤ Satz 3.2.2. Sei (H, h·, ·i) ein Hilbertraum, und sei (an )n∈N ein Orthonormalsystem in H. Sei W die Abschließung der linearen H¨ ulle von {an | n ∈ N} und x ∈ H. Wir definieren die Fourierkoeffizienten von x bez¨ uglich (an ) durch γn = han , xi. Dann gilt: P∞ (a) w n=0 γn an konvergiert in H. P= ∞ (b) Pn=0 γn an ist die orthogonale Projektion von x auf W . ∞ 2 2 (c) n=0 |γn | ≤ kxk (Besselsche Ungleichung). (d) In der Besselschen Ungleichung gilt genau dann Gleichheit, wenn w = x (Parsevalsche Gleichung). Beweis. (a) und (c): F¨ ur jedes endliche k sei wk die orthogonale Projektion von x auf die lineare H¨ ulle Wk von {an | n = 0 · · · k}. Nach Lemma 3.1.8 ist kwk k ≤ kxk, Pk 2 = kwk k2 ≤ kxk2 . Daher ist die Summe und n=0 |γn | P∞ nach 2Satz 3.1.10 ist n=0 |γn | beschr¨ P∞ ankt, und folglich absolut konvergent. Nach Lemma 3.2.1 konvergiert auch n=0 γn an . Pk (b) Da jede Partialsumme sk = n=0 γn an in W liegt, und W abgeschlossen ist, liegt auch w ∈ W . Außerdem ist sk die orthogonale Projektion von x auf Wk , sodass x − sk insbesondere orthogonal auf alle an mit n ≤ k steht. Sei nun n ∈ N fix, dann ist wegen der Stetigkeit des inneren Produktes (Lemma 3.1.4) hx − w, an i = lim hx − sk , an i = 0. k→∞
Daher gilt auch hx−w, vi = 0 f¨ ur alle v in der linearen H¨ ulle der an . Sei nun v ∈ W . Dann gibt es also eine Folge vk → v, wobei vk in der linearen H¨ ulle der an liegen. Wieder wegen der Stetigkeit des inneren Produktes ist hx − w, vi = lim hx − w, vk i = 0. k→∞
Damit steht x − w orthogonal auf W , folglich ist w die orthogonale Projektion von x auf W . (d) folgt direkt aus Lemma 3.1.8(c). ¤ Definition 3.2.3. Sei (H, h·, ·i) ein Hilbertraum und (an )n∈N ein Orthonormalsystem in H. andig, wenn die lineare (a) Das Orthonormalsystem (an )n∈N in H heißt vollst¨ H¨ ulle von {an | n ∈ N} dicht in H liegt, das heißt, wenn ihre abgeschlossene H¨ ulle ganz H ist. glich (an ) sind definiert (b) Sei x ∈ H. Die Fourierkoeffizienten von x bez¨ Pu∞ durch γn = han , xi. Die Fourierreihe von x ist n=0 γn an .
66
Satz 3.2.4. Sei (H, h·, ·i) ein Hilbertraum andiges OrthoP∞ und (an )n∈N ein vollst¨ normalsystem in H. Sei x ∈ H, und γ a die Fourierreihe von x. Dann ist n n n=0 P∞ P∞ x = n=0 γn an , und kxk2 = n=0 |γn |2 . Beweis. Das ist ein unmittelbares Korollar von Satz 3.2.2 unter Ber¨ ucksichtigung, dass die abeschlossene lineare H¨ ulle der {an } schon ganz H ist. ¤ Satz 3.2.5. Sei (H, h·, ·i) ein Hilbertraum und (an )n∈N ein vollst¨ andiges Orthonormalsystem in H. Durch die Abbildung ( H → `2 (N, C) T : x 7→ (han , xi)n∈N wird ein isometrischer Isomorphismus von H auf den `2 (N, C) gegeben. Das heißt, T ist eine bijektive lineare Abbildung mit kT (x)k`2 (N,C) = kxk. Beweis. Nach Satz 3.2.4 liegt die Folge T (x) = (γn ) mit γn = han , xi tats¨achlich in `2 (N, C), denn ∞ X k(γn )k2`2 (N,C) = |γn |2 = kxk2 . n=0
Damit ist auch bewiesen, dass T normerhaltend ist. Die Linearit¨at folgt, da T (αx+βy) = (han , αx+βyi)n∈N = α(han , xi)n∈N +β(han , yi)n∈N = αT (x)+βT (y). Letztlich erh¨alt man die Bijektivit¨at mit Hilfe der Umkehrabbildung: ∞ X T −1 (γn )n∈N = γn a n . n=0
Nach Lemma 3.2.1 konvergiert diese Reihe in H, wenn (γn )n∈N eine Folge in `2 (N, C) ist. ¤ 3.2.2. Die Fourierzerlegung periodischer Funktionen. Wir wenden nun die abstrakte Hilbertraum-Theorie dazu an, eine periodische Funktion in Sinusschwingungen zu zerlegen. Eine Funktion f : (−∞, ∞) → C mit Periode T soll als Reihe in der Form ∞ X f (t) = γn e2πiλn t n=−∞
geschrieben werden. Dabei sollen Frequenzen λn verwendet werden, f¨ ur die e2πiλn t ebenfalls T -periodisch ist, also λn = Tn f¨ ur ganzzahlige n. Da die Funktion periodisch ist, gen¨ ugt es, ihre Einschr¨ankung auf das Intervall [− T2 , T2 ] zu betrachten. Sei also f ∈ L2 ([− T2 , T2 ], C). (Ebenso gut und mit denselben Ergebnissen bis auf ¨ offensichtliche Anderungen kann man auf dem Intervall [0, T ] arbeiten.) Wir betrachten das Funktionensystem 1 an (t) = √ e2πint/T . T Das sind also jene Exponentialfunktionen, die T -periodisch sind, normiert mit einem geeigneten skalaren Faktor.
67
Lemma 3.2.6. Das Funktionensystem (an )n∈Z definiert durch an (t) = ist ein Orthornormalsystem in L2 ([− T2 , T2 ], C). Beweis. han , am i =
Z
T 2
− T2
1 1 √ e2πint/T e2πimt/T dt = T T
Z
T 2
√1 e2πint/T T
e2πi(m−n)t/T dt = δm,n .
−f racT 2
¤ Die Vollst¨andigkeit braucht etwas mehr Aufwand. Wir verwenden einen klassischen Lehrsatz (ohne Beweis) u ¨ber Algebren stetiger Funktionen auf kompakten R¨aumen. (Wer mit topologischen R¨aumen nicht vertraut ist, kann statt dessen an kompakte Teilmengen des RN denken): Satz 3.2.7 (Satz von Stone-Weierstraß). Sei Ω ein kompakter topologischer Raum, und A eine Menge stetiger Funktionen Ω → C mit folgenden Eigenschaften: (a) A ist eine Algebra bez¨ uglich der punktweisen Addition und -Multiplikation, das heißt: Sind f, g ∈ A, α, β ∈ C, dann sind auch die folgenden Funktionen in A: (αf + βg)(t) := αf (t) + βg(t) (f · g)(t) := f (t)g(t) (b) Ist f ∈ A, so ist auch die konjugierte Funktion in A: (f )(t) := f (t). (c) Die konstante Funktion 1 ist in A. (d) A trennt Punkte von Ω, das heißt, sind s 6= t ∈ Ω, dann gibt es ein f ∈ A, sodass f (s) 6= f (t). Dann liegt A dicht im Raum der stetigen Funktionen auf Ω mit der Supremumsnorm, das heißt: Jede stetige Funktion f : Ω → C l¨ aßt sich durch eine Folge von Funktionen fn ∈ A gleichm¨ aßig approximieren: lim sup |f (t) − fn (t)| = 0.
n→∞ t∈Ω
Bemerkung 3.2.8. Jede stetige Funktion auf einem kompakten Intervall ist gleichm¨ aßiger Grenzwert von Polynomfunktionen. Beweis. Im Satz von Stone-Weierstraß nehmen wir f¨ ur Ω ein kompaktes Intervall, und f¨ ur A die Menge der Polynome. ¤ Wir verwenden den Satz von Stone-Weierstraß, um die Dichtheit von Exponentialpolynomen zu zeigen: Lemma 3.2.9. Sei f : R → C eine stetige, periodische Funktion mit Periode T . Sei A die Menge der Exponentialpolynome mit Periode T : A = {t 7→
N X
αn e2πint/T | N ∈ N, αn ∈ C}.
n=−N
Dann gibt es eine Folge fn ∈ A, die gleichm¨ aßig auf R gegen f konvergiert.
68
Beweis. Weil R nicht kompakt ist, brauchen wir einen kleinen Trick, um auf eine kompakte Grundmenge zu kommen. Wir setzen Ω = (− T2 , T2 ] mit der Abstandsfunktion d(s, t) = min{|s − t|, T − |t − s|}. (Anschaulich gesprochen, wurde das Intervall [− T2 , T2 ] an den Enden zu einer Kreislinie zusammengeklebt, dass − T2 mit T2 identifiziert wurde.) Mit dieser Abstandsfunktion ist Ω ein kompakter metrischer Raum. Es ist leicht nachzurechnen, dass A eine Algebra mit Konjugation und Eins ist. Wir werden im Folgenden der Bequemlichkeit halber bei Bedarf die endlichen Summen in formal unendliche Reihen umschreiben: N ∞ X X αn e2πint/T = αn e2πint/T n=−∞
n=−N
mit αn = 0 f¨ ur |n| > N . N X
α
n=−N
Ã
N X
M X
ρn e2πint/T + β
σm e2πimt/T =
n=−M
!Ã
M X
ρn e2πint/T
n=−N
mit τk =
! σm e2πimt/T
n=−M N X
∞ X
(αρn + βσn )e2πint/T ,
n=−∞
=
NX +M
τk e2πikt/T
k=−N −M
ρn σk−n ,
n=−N N X
ρn e2πint/T =
n=−N 0t
N X
ρ−n e2πint/T
n=−N
1=e . Um zu zeigen, dass A Punkte trennt, w¨ahlen wir s 6= t ∈ (− T2 , T2 ] beliebig. W¨ urde A 2πit/T die Punkte s und t nicht trennen, so m¨ ußte insbesondere gelten: e = e2πis/T . Dann w¨are also 2π(t − s)/T ein ganzzahliges Vielfaches von 2π, und damit t − s ein ganzzahliges Vielfaches von T . Da beide Punkte in (− T2 , T2 ] liegen, folgt t − s = 0. Wir k¨onnen daher den Satz von Stone-Weierstraß anwenden, und wissen, dass jede stetige Funktion f : Ω → C gleichm¨aßig durch Funktionen aus A approximiert werden kann. Da die Fortsetzung von f u ¨ber das Intervall (− T2 , T2 ] hinaus aber periodisch erfolgt, und die fn ∈ A periodisch mit Periode T sind, gilt die gleichm¨aßige Konvergenz auf ganz (−∞, ∞). ¤
Wir ben¨otigen nun noch ein Lemma aus der Maß- und Integrationstheorie, das wir ohne Beweis angeben: Lemma 3.2.10. Die stetigen Funktionen mit f (− T2 ) = f ( T2 ) liegen dicht im Raum L2 ([− T2 , T2 ], C). Satz 3.2.11. Das Funktionensystem (an )n∈Z definiert durch an (t) = ist ein vollst¨ andiges Orthornormalsystem in L2 ([− T2 , T2 ], C).
√1 T
e2πint/T
69
Beweis. Nach Lemma 3.2.6 bilden die (an ) ein Orthonormalsystem. Sei nun f ∈ L2 ([0, T ], C). Sei ² > 0. Wegen Lemma 3.2.10 gibt es eine Folge stetiger Funktionen fn mit fn (T ) = fn (0), die bez¨ uglich der L2 -Norm gegen f konvergieren. Wir w¨ahlen n so, dass ² kfn − f kL2 ([− T , T ],C) < . 2 2 2 Wegen Lemma 3.2.9 gibt es eine Funktion gm (t) =
N X
αn e2πint/T =
n=−N
mit
N X
αn an (t)
n=−N
² kgm − fn kL∞ ([− T , T ],C) < √ . 2 2 2 T
Dann ist aber kgm − fn kL2 ([− T , T ],C) 2
2
v uZ u =t
T 2
− T2
v uZ u 2 |gm − fn | dt ≤ t
T 2
− T2
² ²2 = . 4T 2
Letztlich ist kf − gm kL2 ([− T , T ],C) ≤ kf − fn kL2 ([− T , T ],C) + kfn − gm kL2 ([− T , T ],C) ≤ ². 2
2
2
2
2
2
Also l¨asst sich f durch Linearkombinationen der (an ) approximieren, d.h., die lineare H¨ ulle der (an ) liegt dicht. ¤ Die abstrakte Theorie liefert damit folgendes Resultat: Satz 3.2.12. Sei f ∈ L2 ([− T2 , T2 ], C). Wir definieren die Fourierkoeffizienten von f durch Z T2 1 γn = √ e−2πint/T f (t) dt. T − T2 Dann konvergiert die folgende Fourierreihe bez¨ uglich der Norm in L2 ([− T2 , T2 ], C) gegen f : ∞ 1 X f=√ γn e2πint/T . T n=−∞ Die Abbildung F
( 2 L ([− T2 , T2 ], C) f
→ `2 (Z, C) RT 7→ ( √1T −2T e−2πint/T f (t) dt)n∈Z 2
ist ein isometrischer Isomorphismus mit Umkehrabbildung ( `2 (Z, C) → L2 ([− T2 , T2 ], C), P∞ F −1 2πint/T (γn )n∈Z 7→ √1T . n=−∞ γn e Beweis. Nach Satz 3.2.11 bilden die Funktionen an (t) =
√1 T
e2πint/T ein vollst¨andi-
ges Orthonormalsystem auf L2 ([− T2 , T2 ], C). Wir wenden nun auf diese Situation direkt Satz 3.2.4 und Satz 3.2.5 an. ¤
70
Beispiel 3.2.13. Berechnen Sie die Fourierreihe der Rechteckfunktion f : [0, 1] → C: ( 1 falls t ∈ [0, 21 ), f (t) = −1 falls t ∈ [ 12 , 1]. L¨ osung: Die Fourierkoeffizienten f¨ ur n ∈ Z sind Z 1 γn = e−2πint f (t) dt 0
Z =
1/2
Z e−2πint dt −
0
1
e−2πint dt
1/2
( 1/2 − 1/2 falls n = 0, 1 1 −πin −2πin −πin (e − 1) − (e − e ) −2πin 2πin ( 0 falls n gerade, 2 falls n gerade. πin
= =
Wir k¨onnen noch positive und negative n zusammenfassen: X X 2 2πint 4 f (t) = (e − e−2πint ) = sin(2πnt). πin πn n=1,3,5,··· n=1,3,5,··· Beachten Sie, dass die Konvergenz nur in L2 ist. An den Punkten t = 0, 12 , 1 (n¨amlich den Unstetigkeitsstellen der Rechteckfunktion) konvergiert die Reihe nicht, wie man aus der Abbildung kann. Das Bild zeigt die Rechteckfunktion P gut sehen 4 und die Partialsummen n=1,3,··· ,k πn sin(2πnt) ihrer Fourierreihe f¨ ur k = 1, 3, 5 und k = 15.
1
0
−1
0
0.5
1
3.2.3. Fourierreihen und selbstadjungierte Operatoren. Die abstrakte Theorie der Fourierreihen in Hilbertr¨aumen findet nicht nur Anwendung bei der Zerlegung von Funktionen in Sinussignale. Es besteht eine enge Verbindung mit der Spektraltheorie von Operatoren, und sie spielt eine Schl¨ usselrolle bei der Behandlung von partiellen Differentialgleichungen. Wir k¨onnen das
71
hier nur an einem einfachen Beispiel anreissen, mehr Details erf¨ahrt man in einer Vorlesung u ¨ber Funktionalanalysis. Wir l¨osen zun¨achst die partielle Differentialgleichung
(3.2.1)
∂ ∂2 u(t, x) = u(t, x), f¨ ur t ≥ 0, x ∈ [0, 1], ∂t ∂x2 u(t, 0) = u(t, 1) = 0 f¨ ur t ≥ 0 (Randbedingung), u(0, x) = u0 (x) f¨ ur x ∈ [0, 1] (Anfangsbedingung).
Gesucht ist die Funktion u. Die Anfangsfunktion u0 ist gegeben. Wir verwenden die klassische Methode der Trennung der Variablen. Zun¨achst beachten wir die Anfangsbedingung nicht und machen den Ansatz u(t, x) = v(t)w(x). Dann gilt 1 d 1 d2 v(t) = w(x). v(t) dt w(x) dx2 Da die linke Seite nur von t und die rechte Seite nur von x abh¨angt, m¨ ussen beide konstant sein. Wir bezeichnen diese Konstante mit λ. Dann gilt d v(t) = λv(t), dt d2 w(x) = λw(x), dx2 w(0) = w(1) = 0 (Randbedingung). Aus der ersten Gleichung erhalten wir sofort mit einer Konstanten c v(t) = ceλt . Ohne Beschr¨ankung der Allgemeinheit setzen wir c = 1, wir k¨onnen den konstanten Faktor ja jederzeit auf w u ¨berw¨alzen. Aus der zweiten Gleichung erhalten wir mit geeigneten Konstanten c1 , c2 : w(x) = c1 ex
√ λ
√
+ c2 e−x
λ
.
Einsetzen in die Randbedingung gibt zwei lineare Gleichungen f¨ ur c1 , c2 : c
e
√1 λ
c1
+ +
c √2 λ
e−
c2
= 0, = 0.
Eine nichttriviale L¨osung gibt es nur, wenn die Systemdeterminante verschwindet, und das ergibt √
√
e− λ − e λ = 0 √ 2 λ = 2nπi mit n ∈ Z, λ = −n2 π 2 mit n ∈ N. Aufl¨osen nach c1 und c2 und ein paar einfache Umformungen ergeben mit einer Konstanten C w(x) = C sin(nπx).
72
Wir w¨ahlen willk¨ urlich C = alle n ∈ N \ {0}:
√
2 und erhalten eine Folge von L¨osungen, n¨amlich f¨ ur 2
un (t, x) = e−n
π2 t
√
2 sin(nπx).
Wenn es uns gelingt, aus diesen L¨osungen eine Reihe aufzubauen, welche die Anfangsbedingung erf¨ ullt, haben wir (3.2.1) gel¨ost. Der Ansatz ist also u(t, x) = mit
u0 (x) =
∞ X
2
γn e−n
π2 t
√
2 sin(nπx),
n=1 ∞ X
√ γn 2 sin(nπx).
n=1
Der Zusammenhang dieses klassischen L¨osungsverfahrens mit der Theorie der Fourierreihen wird offensichtlich, wenn man beobachtet, dass die Funktionen √ wn (x) = 2 sin(nπx) ein Orthonormalsystem in L2 ([0, 1], C) bilden. Tats¨achlich ist Z 1√ Z 1 √ 2 sin(nπx) 2 sin(mπx) dx = [cos((n − m)πx) − cos((n + m)πx)] dx = δm,n . 0
0
Man kann nachpr¨ ufen, dass dieses Orthonormalsystem auch vollst¨andig ist, das l¨asst sich zum Beispiel aus der Vollst¨andigkeit des Systems (e2πikx )k∈Z herleiten. Wir k¨onnen daher jede Anfangsfunktion u0 ∈ L2 ([0, 1], C) in eine Fourierreihe bez¨ uglich des Orthonormalsystems (wn ) entwickeln. Wir erinnern uns, dass die wn als L¨osungen eines Randwertproblems erhalten haben, zun¨achst mit einer unbekannten Konstanten λ: d2 w = 0, w(0) = w(1) = 0. dx2 Wir schreiben formal die zweite Ableitung als eine lineare Abbildung, einen Operator A: ( dom(A) → L2 ([0, 1], C), (3.2.2) A : d2 w 7→ dx 2 w, λw −
mit dem Definitionsbereich n d dom(A) = v ∈ L2 ([0, 1], C) | (3.2.3) v ∈ L2 ([0, 1], C), dx o d2 2 v ∈ L ([0, 1], C), v(0) = v(1) = 1 . dx2 Dann ist die obige Gleichung ein Eigenwertproblem: λw − Aw = 0. Abstrakt gesehen, haben wir also die Differentialgleichung d u(t) = Au(t), u(0) = u0 dt
73
mittels eines Fourierreihenansatzes gel¨ost. Wir haben zun¨achst ein Orthonormalsystem wn von Eigenvektoren von A zu den Eigenwerten λn aufgefunden, dann u0 in eine Fourierreihe entwickelt ∞ X u0 = γn wn n=1
und letztlich die Fourierreihe der L¨osung erhalten: u(t) =
∞ X
γn eλn t wn .
n=1
Es fragt sich noch, welche Operatoren Orthonormalsysteme aus Eigenvektoren besitzen. In endlichdimensionalen R¨aumen CN , f¨ ur eine Matrix A, lautet die Antwort: Die Matrix besitzt eine Orthonormalbasis aus Eigenvektoren genau dann, wenn sie normal ist, also mit ihrer Adjungierten kommutiert: AA∗ = A∗ A. Bekannte Sonderf¨alle davon sind selbstadjungierte und schiefadjungierte Matrizen: A = A∗ bzw. A = −A∗ . Das l¨asst sich auch schreiben: (∀x, y ∈ CN ) hAx, yi = ±hx, Ayi. Diese Konzepte lassen sich, mit der n¨otigen Vorsicht, auf unendlichdimensionale Hilbertr¨aume u ¨bertragen. Betrachten wir zum Beispiel noch einmal den Operator A aus (3.2.2), (3.2.3). Es gilt f¨ ur v, w ∈ dom(A), mit partieller Integration unter Ber¨ ucksichtigung der Randbedingungen: Z 1 ¯t Z 1 ¯ hAv, wi = v 00 (x)w(x) dx = [v 0 (x)w(x)]¯ − v 0 (x)w0 (x) dx 0
0
=
¯t Z ¯ 0 − [v(x)w0 (x)]¯ + 0
1
0
v(x)w00 (x) dx = hv, Awi.
0
Einen Operator A mit der Eigenschaft hAv, wi = hv, Awi nennt man symmetrisch. Dies ist erst eine notwendige Voraussetzung f¨ ur Selbstadjungiertheit, aus der wiederum — mit weiteren Bedingungen — die Existenz einer Orthonormalbasis von Eigenvektoren gefolgert werden kann. In Tabellenwerken u ¨ber spezielle Funktionen findet man viele verschiedene bekannte Orthonormalsysteme von Funktionen. Viele dieser Systeme bestehen aus Polynomen (Legendrepolynome, Chebychevpolynome), manche sind transzendente Funktionen (z.B. Besselfunktionen). Die meisten sind als Systeme von Eigenvektoren mit bestimmten Differentialgleichungen verbunden. 3.3. Fouriertransformation diskreter Signale. 3.3.1. Abtastung, Nyquistfrequenz und Aliasing. In Unterabschnitt 3.2 haben wir T -periodische Funktionen in abz¨ahlbare Summen (also Reihen) von Sinusschwingungen — in komplexer Schreibweise Exponentialfunktionen mit rein imagin¨aren Exponenten — zerlegt. Als Frequenzen der Komponenten kamen nat¨ urlich nur solche in Frage, die wiederum die Periode T hatten, damit kamen also nur die Funktionen t 7→ e2πint/T mit ganzzahligen (positiven oder negativen) n vor. Wir betrachten nun Funktionen, die nur an diskreten ¨aquidistanten Zeitpunkten tn = θn gegeben sind.
74
Sehr oft findet man in Anwendungen die folgende Situation. Ein kontinuierliches Signal wird nur zu diskreten Zeitpunkten nθ aufgezeichnet (das nennt man Abtastung oder Sampling). Damit liegt f¨ ur die Weiterbearbeitung ein diskretes Signal vor. Die Anzahl der Abtastungen pro Zeiteinheit, also θ1 nennt man auch Abtastfrequenz. Wir u ¨berlegen zun¨achst, welcher Frequenzbereich herangezogen werden muss, wenn eine solche Funktion in Sinusschwingungen zerlegt werden soll. Das folgende ¨ Lemma ist trivial, aber f¨ ur unsere Uberlegungen von zentraler Bedeutung: Lemma 3.3.1. Unterscheiden sich zwei Frequenzen ν1 und ν2 um ein ganzzahliges Vielfaches von 1/θ, so unterscheiden sich die Werte der Funktionen e2πiν1 t und e2πiν2 t nicht an den Stellen t = nθ mit ganzzahligen n. ¨ Ist daher f : θZ → C eine Funktion, die sich durch Uberlagerung von Exponentialfunktionen mit rein imagin¨ aren Exponenten darstellen l¨ asst, so reichen dazu bereits 1 1 die Funktionen e2πiνt mit ν ∈ (− 2θ , 2θ ]. Das Ph¨anomen, dass mehrere Frequenzen auf θZ dieselbe Funktion darstellen, nennt man Aliasing. Die Frequenzen ν + kθ mit k ∈ Z sind die Aliasfrequenzen der 1 nennt man auch die Nyquistfrequenz. Frequenz ν. Die Frequenz 2θ Wenn ein kontinuierliches Signal abgetastet werden soll, muss die Abtastfrequenz so hoch gew¨ahlt werden, dass die h¨ochsten Frequenzen von Sinusschwingungen, die noch wahrgenommen werden sollen, unter der Nyquistfrequenz liegen. Sonst wird eine hochfrequente Sinusschwingung durch Aliasing mit einer Schwingung geringerer Frequenz identifiziert. Das Bild zeigt die Funktionen sin(1.6πt) (blau) und sin(−0.4πt) (rot). Bei Abtastung an den ganzzahligen Zeitpunkten (gr¨ une Punkte) k¨onnen die beiden Frequenzen nicht unterschieden werden. 1
0
−1
−3
−2
−1
0
1
2
3
Stellen Sie sich vor, Sie beobachten den Sekundenzeiger einer Uhr. Wenn Sie im Abstand weniger Sekunden seine Lage beobachten, nehmen Sie sein langsames Vorw¨artskriechen wahr. Wenn Sie im Abstand von 45 Sekunden hinschauen, scheint er in 90-Grad-Schritten r¨ uckw¨ arts zu springen. Wenn Sie im Abstand von 30 Sekunden hinschauen, k¨onnen Sie nicht entscheiden, ob er sich vorw¨arts oder r¨ uckw¨arts bewegt hat. Dasselbe Ph¨anomen ist wohlbekannt bei Filmaufnahmen drehender R¨ader. Wenn das Rad beschleunigt wird, scheint es sich in der Filmaufnahme zwar
75
zun¨achst schneller zu drehen, steht dann aber scheinbar still und dreht sich in Gegenrichtung weiter. Bei digitalen Audioaufnahmen liegt die Abtastfrequenz bei 44 kHz. Damit liegt die Nyquistfrequenz bei 22 kHz. Der H¨orbereich der meisten Menschen endet unter 20 kHz, bei ¨alteren Menschen weit darunter. Damit nicht Frequenzen außerhalb des H¨orbereichs durch Aliasing beim Sampling am Ende als h¨orbare St¨orungen wiedergegeben werden, werden vor der Abtastung des Audiosignals Frequenzen oberhalb der Nyquistfrequenz durch ein Tiefpassfilter ausgefiltert. 3.3.2. Fouriertransformation diskreter Signale. F¨ ur die Zerlegung eines diskreten Signals steht also nicht wie im periodischen Fall eine abz¨ahlbare Menge von Frequenzen zur Verf¨ ugung, sondern ein Kontinuum im 1 1 ¨ Intervall (− 2θ , 2θ ]. Die Uberlagerung erfolgt nun nicht durch eine Reihe, sondern ein Integral. Die mathematische Arbeit dazu ist bereits geleistet: Wir m¨ ussen nur die Theorie der Fourierreihen periodischer Funktionen umgekehrt lesen. P∞ 2 Satz 3.3.2. Sei g : θZ → C eine Funktion, sodass ur n=−∞ |g(nθ)| < ∞. F¨ 1 1 ν ∈ [− 2θ , 2θ ] definieren wir g˜(ν) =
√
∞ X
θ
e−2πiνnθ g(nθ).
n=−∞
Dann gilt: (a) F¨ ur alle n ∈ Z ist g(nθ) =
√ Z θ
1 2θ
e2πiνnθ g˜(ν) dν.
1 − 2θ
1 1 (b) Die Funktion g˜ liegt in L2 ([− 2θ , 2θ ], C) mit ∞ X
k˜ g k2L2 ([− 1 , 1 ],C) = 2θ 2θ
|g(nθ)|2 .
n=−∞
Beweis. Wir setzen γn = g(−nθ). Nach Voraussetzung ist (γn )n∈Z ∈ `2 (Z, C). Wir verwenden nun den Isomorphismus F aus Satz 3.2.12 mit T = θ1 und setzen 1 1 g˜ = F −1 (γn ), das heißt, f¨ ur ν ∈ [− 2θ , 2θ ] sei g˜(ν) =
√
θ
∞ X
e2πinνθ γn =
√
n=−∞
θ
∞ X
e−2πinθ g(nθ).
n=−∞
2
Insbesondere gilt f¨ ur die L -Norm 1 Z 2θ ∞ ∞ X X |g(nθ)|2 . |γn |2 = |˜ g (ν)|2 dν = 1 − 2θ
n=−∞
n=−∞
Letztlich gilt (γn ) = F(˜ g ), also g(nθ) = γ−n
√ Z = θ
1 2θ
e2πiνnθ g˜(ν) dν.
1 − 2θ
¤
76
3.3.3. Abtasttheorem von Shannon-Nyquist. Wir betrachten nun die Situation, dass ein kontinuierliches Signal mit der Abtastfrequenz θ1 abgetastet wurde, und nun auch f¨ ur die Zeitpunkte t zwischen den Abtastpunkten rekonstruiert werden soll. Diese Aufgabe muss zum Beispiel vom Digital-Analog-Wandler eines Audio-CD-Spielers bew¨altigt werden. (Dieser rekonstruiert das Signal f¨ ur n diskrete Zwischenwerte der Abtastintervalle, man spricht von n-fach Oversampling.) Die Aufgabe ist auf Grund des Aliasing ohne Zusatzvoraussetzung nicht eindeutig l¨osbar, es k¨onnen zwei Funktionen verschieden sein, obwohl sie an allen Abtastpunkten dieselben Werte haben. L¨asst sich aber das kontinuierliche Signal als Fourierintegral von Frequenzen bis zur Nyquistfrequenz schreiben, so ist die Rekonstruktion eindeutig. Satz 3.3.3 (Rekonstruktionsformel von Shannon-Nyquist). Sei g : (−∞, ∞) → C durch ein Fourierintegral gegeben: √ Z θ
g(t) =
1 2θ
e2πiνt g˜(ν) dν.
1 − 2θ
1 1 Dabei sei g˜ ∈ L2 ([− 2θ , 2θ ], C). Dann ist
g(t) =
∞ X sin(π(t/θ − n)) g(nθ). π(t/θ − n) n=−∞
Beweis. Wir entwickeln g˜ nach Satz 3.2.12 in eine Fourierreihe und erhalten (mit T = 1/θ): g˜(ν)
=
√
∞ X
θ
γn e2πinνθ mit
n=−∞
γn
=
√ Z θ
1 2θ
e−2πiνnθ g˜(ν) dν = g(−nθ).
1 − 2θ
Wir erhalten damit g(t)
=
√ Z θ
1 2θ
∞ √ X e2πiνt θ g(−nθ)e2πinνθ dν
1 − 2θ
= = = =
∞ X n=−∞ ∞ X n=−∞ ∞ X n=−∞ ∞ X n=−∞
Z
g(−nθ)θ
n=−∞ 1 2θ
e2πiν(t+nθ) dν
1 − 2θ
g(−nθ)θ g(−nθ) g(nθ)
1 [eπi(t+nθ)/θ − e−πi(t+nθ)/θ ] 2πi(t + nθ)
sin(π(t/θ + n)) π(t/θ + n)
sin(π(t/θ − n)) . π(t/θ − n) ¤
77
Das Bild zeigt die Funktion
sin(πt) πt ,
die einer Abtastfrequenz von
1 θ
= 1 entspricht.
1
0
−5
0
5
Der Abstand der blauen Kreise ist der Abstand der Abtastpunkte. Wird z.B. g(0) rekonstruiert, erscheint — wie ja logisch zu erwarten ist — der Wert g(0) mit dem Gewicht 1, alle anderen g(n) mit dem Wert 0. Wird g(t) f¨ ur ein nichtganzzahliges t rekonstruiert, fließen alle Werte von g(n) ein, abwechselnd mit positiven und negativen Vorzeichen, und Gewichten, die f¨ ur n → ±∞ monoton gegen Null gehen.
78
4. Fouriertransformation auf der reellen Geraden 4.1. Fouriertransformation schnell fallender Funktionen. 4.1.1. Schnell fallende Funktionen. Auch die Fouriertransformation von (nicht notwendig periodischen) Funktionen auf der ganzen rellen Achse ist im Prinzip eine Zerlegung in Sinusschwingungen. Nun stehen aber uneingeschr¨ankt alle Frequenzen zur Verf¨ ugung. Wir haben bereits bei der Transformation diskreter Signale gesehen, dass die Zusammensetzung des Signals aus Sinusschwingungen durch ein Integral erfolgt. Wir definieren zun¨achst die Fouriertransformation auf einer sehr kleinen Menge von Funktionen, auf der die Konvergenz der Integrale und Differenzierbarkeit kein Problem sind. Es gibt dann zwei Wege, die Fouriertransformation auf wesentlich gr¨oßere Klassen von Funktionen stetig auszudehnen. Definition 4.1.1. Sei f : (−∞, ∞) → C eine Funktion. Wir nennen f eine schnell fallende Funktion (rapidly decreasing), wenn f beliebig oft stetig differenzierbar ist, dk und f¨ ur alle k, m ∈ N die Funktion t 7→ tm dt ankt ist. Die k f (t) auf ganz R beschr¨ Menge der schnell fallenden Funktionen auf R bezeichnen wir mit S((−∞, ∞), C). Die folgenden beiden Lemmata zeigen, dass Integration, Differentiation und Faltung schnell fallender Funktionen ohne Bedenken u uhrt ¨ber die Konvergenz durchgef¨ werden k¨onnen. Lemma 4.1.2. Sei f eine schnell fallende Funktion und k, m ∈ N. Dann gilt: Z ∞ h i |tm f (k) (t)| dt ≤ M ktm f (k) kL∞ ((−∞,∞),C) + ktm+2 f (k) kL∞ ((−∞,∞),C) −∞
mit der Konstanten
Z
∞
M= −∞
Beweis. Wir sch¨atzen ab:
´ 1 ³ m (k) m+2 (k) |t f (t)| + |t f (t)| 1 + t2
|tm f (k) (t)| ≤ und erhalten Z
∞
−∞ Z ∞
≤ −∞
<
1 dt. 1 + t2
|tm f (k) (t)| dt h i 1 m (k) m+2 (k) ∞ ((−∞,∞)C) + kt ∞ ((−∞,∞)C) dt kt f k f k L L 1 + t2
∞. ¤
Lemma 4.1.3. Seien f, g schnell fallende Funktionen, α, β ∈ C. Dann gilt (a) Alle Funktionen tm f (k) sind ebenfalls schnell fallend. (b) Es sind auch die folgenden Funktionen schnell fallend: αf + βg, f · g, f ∗ g. S((−∞, ∞), C) bildet mit der punktweisen Linearkombination einen Vektorraum, der sowohl durch punktweise Multiplikation als auch durch Faltung jeweils eine Algebra bildet.
79
(Allerdings enth¨ alt keine dieser Algebren eine Eins: Weder die konstante Funktion 1, noch der Dirac’sche Delta-Impuls sind schnell fallende Funktionen.) Beweis. (a) Wir sch¨atzen ab n∧m X µn¶ dn m (k) m! p (t f )(t)| = |t tm−j f (k+n−j) | j (m − j)! dtn j=0 µ ¶ n∧m X n m! ktp+m−j f (k+n−j) kL∞ ((−∞,∞)C) . j (m − j)! j=0
|tp
≤
(b) Wir sch¨atzen ab: dk dk dk (αf + βg)(t)| ≤ |α| |tm k f | + |β| |tm k g|, k dt dt dt k µ ¶ n k−n k X d d k d f (t) k−n g(t)| |tm k (f g)(t)| = |tm n dtn dt dt n=0 µ ¶ k X k dn dk−n |tm n f (t)| | k−n g(t)|, n dt dt n=0 |tm
≤
= ≤ ≤
dk |tm k (f ∗ g)(t)| = |tm (f (k) ∗ g)(t)| # Z " mdtµ ¶ ∞ X m n m−n (t − s) s | g(s)f (k) (t − s) ds| n −∞ n=0 m µ ¶Z ∞ X m |(t − s)n f (k) (t − s)| |sm−n g(s)| ds n −∞ n=0 Z ∞ m µ ¶ X m n (k) kt f kL∞ ((−∞,∞)C) |sm−n g(s)| ds. n −∞ n=0
Der letzte Term ist wegen Lemma 4.1.2 endlich.
¤
Definition 4.1.4. Seien f und fn (n ∈ N) schnell fallende Funktionen. Wir sagen: fn konvergiert gegen f in S((−∞, ∞), C), wenn alle Ableitungen von fn , multipliziert mit beliebigen Potenzen von t, gleichm¨ aßig konvergieren: (∀k, m ∈ N) lim ktm n→∞
k dk m d f − t f kL∞ ((−∞,∞),C) = 0. n dtk dtk
Bemerkung 4.1.5. Man kann zeigen: Definiert man f¨ ur f, g ∈ S((−∞, ∞), C) den Abstand ∞ X ktm f (k) − tm g (k) kL∞ ((−∞,∞),C) , d(f, g) := 2−(k+m) 1 + ktm f (k) − tm g (k) kL∞ ((−∞,∞),C) k,m=0 so wird (S((−∞, ∞), C), d) ein vollst¨ andiger metrischer Raum, und Konvergenz bez¨ uglich d ist ¨ aquivalenz zu Konvergenz im Sinne von Definition 4.1.4. Allerdings l¨ aßt sich S((−∞, ∞), C) nicht zu einem normierten Raum machen.
80
4.1.2. Definition der Fouriertransformation. Definition 4.1.6. Sei f ∈ S((−∞, ∞), C). Wir definieren die Fouriertransformierte F(f ) = f˜ als eine Funktion f˜ : (−∞, ∞) → C mit Hilfe des Fourierintegrals: Z ∞ 1 f˜(ξ) := √ e−iξt f (t) dt. 2π −∞ Die Konvergenz des Integrals ist nach Lemma 4.1.3(a) gesichert. Im Fall periodischer Funktionen haben wir durch ein Integral die Fourierkoeffizienten berechnet. Nun haben wir nicht abz¨ahlbar viele Frequenzen sondern ein Kontinuum von Frequenzen zur Verf¨ ugung. Statt der Berechnung einzelner Koeffizienten folgt nun die Berechnung einer kontinuierlichen Funktion, ganz grob gesprochen sozusagen der Dichte des Auftretens der einzelnen Frequenzen. Wie die urspr¨ ungliche Funktion ¨ mit Hilfe ihrer Fouriertransformation dann als Uberlagerung der Frequenzen dargestellt werden kann, werden wir sp¨ater unter dem Namen “Umkehrformel der Fouriertransformation” (Satz 4.2.3) zeigen. √ Bemerkung 4.1.7. Manche Autoren lassen den Faktor 1/ 2π weg. Der Faltungssatz 4.2.6, die Umkehrformel Satz 4.2.3, sowie der Satz 4.3.2 von Plancherel sind dann mit entsprechenden konstanten Faktoren zu modifizieren. 4.1.3. Fouriertransformation und Ableitung. Ebenso wie die Laplacetransformation hat die Fouriertransformation die n¨ utzliche Eigenschaft, dass im Frequenzbereich Ableitungen durch Multiplikationen wiedergegeben werden. Satz 4.1.8. Sei f eine schnell fallende Funktion und f˜ = F(f ) ihre Fouriertransformierte. Es gilt: dk ˜ f ](ξ) = [F((−it)k f )](ξ), dξ k dk (b) [F( k f )](ξ) = (iξ)k f˜(ξ). dt ugt der Beweis jeweils f¨ ur die erste AbleiBeweis. Durch vollst¨andige Induktion gen¨ tung. Die Konvergenz aller Integrale und die Vertauschbarkeit von Integralen und Ableitungen in den folgenden Rechnungen ist gesichert, weil f schnell fallend ist. Z ∞ d ˜ 1 d [ f ](ξ) = √ e−iξt f (t) dt dξ 2π dξ −∞ Z ∞ 1 (−it)e−iξt f (t) dt = √ 2π −∞ ^](ξ). = [−itf Z ∞ ] d 1 e−iξt f 0 (t) dt [ f ](ξ) = √ dt 2π −∞ Z ∞ ¯∞ 1 1 ¯ = √ e−iξt f (t)¯ −√ (−iξ)e−iξt f (t) dt −∞ 2π 2π −∞ = 0 + iξ f˜(ξ). (a)
[
¤
81
Bemerkung 4.1.9. Beachten Sie den Unterschied zur Laplacetransformierten: c0 ](s) = sfˆ(s) − f (0) f¨ [f ur die Laplacetransformation, f 0 ˜ [f ](ξ) = iξ f (ξ) f¨ ur die Fouriertransformation. Satz 4.1.10. Die Fouriertransformation ist eine stetige lineare Abbildung ( S((−∞, ∞), C) → S((−∞, ∞), C) F: f 7→ f˜. Beweis. Wir zeigen zun¨achst, dass die Fouriertransformierte f˜ einer schnell fallenden Funktion f beschr¨ankt ist. Das folgt aber sofort aus Lemma 4.1.2 wegen Z ∞ 1 ˜ |f (ξ)| = | √ e−iξt f (t) dt| 2π −∞ Z ∞ 1 ≤ √ |f (t)| dt 2π −∞ ≤ M kf kL∞ ((−∞,∞),C) . Wegen Satz 4.1.8 ist ^ dm dk ˜ m ^ k f ](ξ) = i−m−k [ f (ξ) = ξ [(−it) (tk f )](ξ). dξ k dtm Daher ist auch ξ m (f˜)(k) die Fouriertransformierte einer schnell fallenden Funktion, und folglich beschr¨ankt. Folglich ist f˜ eine schnell fallende Funktion. Die Linearit¨at von F ist offensichtlich. Wir beweisen nun die Stetigkeit von F. Ist nun fn eine Folge schnell fallender Funktionen, die im Sinne von Definition 4.1.4 gegen f konvergiert. Es konvergieren dann f¨ ur alle k, m ∈ N insbesondere die Funkdm dm k k tionen dt aßig gegen dt m (t fn ) gleichm¨ m (t f ). Wegen Lemma 4.1.2 gilt nun ξm
k dk ˜ m d f (ξ) − ξ f˜(ξ)| n dξ k dξ k ^ dm^ dm = |[ m (tk fn )](ξ) − [ m (tk f )](ξ)| dt· dt ¸ m dm k 2 d k ≤ M k m (t fn )kL∞ ((−∞,∞),C) + kt m (t fn )kL∞ ((−∞,∞),C) → 0. dt dt ˜ ˜ Daher konvergiert fn → f im Sinne von Definition 4.1.4.
|ξ m
¤
. 4.2. Umkehrformel und Faltungssatz der Fouriertransformation. 4.2.1. Dichtefunktion der Normalverteilung. Wir ben¨otigen als technisches Hilfsmittel die Dichtefunktionen der Normalverteilungen. Definition 4.2.1. Die Dichtefunktion der Normalverteilung mit Mittelwert 0 und Standardabweichung σ > 0 ist t2 1 ρσ (t) = √ e− 2σ2 . σ 2π
82
¨ Uber diese wichtige Funktion brauchen wir folgende Details: Lemma 4.2.2. Sei ρσ wie in Definition 4.2.1. Dann gilt: (a) ρσ ist die Dichtefunktion einer Zufallsvariablen mit Erwartungswert 0 und Standardabweichung σ. Das heißt Z ∞ ρσ (t) dt = 1, −∞ Z ∞ tρσ (t) dt = 0, −∞ Z ∞ t2 ρσ (t) dt = σ 2 . −∞
(b) Ist f ∈ S((−∞, ∞), C), so ist Z ∞ ρσ (t − s)f (s) ds = f (t). lim σ→0+
−∞
(c) ρσ ist eine schnell fallende Funktion. (d) Die Fouriertransformation ergibt 1 F(ρσ )(ξ) = ρ1/σ (ξ). σ ur alle t ∈ R ist (e) F¨ √ √ 0 ≤ σ 2πρσ (t) ≤ 1 und lim σ 2πρσ (t) = 1. σ→∞
ur alle PotenBeweis. Aussage (c) folgt mit einigem Schreibaufwand daraus, dass f¨ zen m gilt 2 lim tm e−t = 0. t→±∞
Damit folgt auch, das alle im Folgenden berechneten Integrale konvergieren. F¨ ur (a) verwenden wir einen eleganten Trick. Wir quadrieren das Integral und gehen zu Polarkoordinaten u ¨ber: ·Z ∞ ¸2 Z ∞ Z ∞ Z ∞Z ∞ s2 +t2 1 ρσ (t) dt = e− 2σ2 ds dt ρσ (t)ρσ (s) ds dt = 2 2πσ −∞ −∞ −∞ −∞ −∞ Z ∞ Z 2π Z ∞ Z ∞ 2 2 r r 1 r − 2σ − 2σ 2 2 = e dr = e−τ dτ = 1. dφ r dr = e 2 2πσ 2 0 σ 0 0 0 R∞ Aus ρσ (t) = −ρσ (−t) folgt −∞ tρσ (t) dt = 0. Mit dem gleichen Trick wie vorhin ist Z ∞ Z ∞ Z ∞ 2 2 2 t ρσ (t) dt = 1 · t ρσ (t) dt + s2 ρσ (s) ds · 1 −∞ −∞ −∞ Z ∞ Z ∞ Z ∞ Z ∞ 2 2 = ρσ (s) ds · t ρσ (t) dt + s ρσ (s) ds · ρσ (t) dt −∞ −∞ −∞ −∞ Z ∞Z ∞ = (s2 + t2 )ρσ (s)ρσ (t) ds dt −∞
1 = 2πσ 2 Z 2 = 2σ
−∞ ∞
Z
0 ∞ 0
Z
2π
r2
Z
r2 e− 2σ2 dφ r dr = 2σ 2
0
τ e−τ dτ = 2σ 2 .
0
∞
r2 − r22 r e 2σ 2 dr 2σ 2 σ
83
(b) folgt nun aus Lemma 2.6.3. Zum Beweis von (d) zeigen wir zuerst f¨ ur alle ² ∈ R: Z ∞ 2 1 1 √ e− 2 (t+i²) dt = 1. 2π −∞ Sei o.B.d.A. ² > 0. Nach dem Cauchyschen Integralsatz ist f¨ ur jede geschlossene Kurve in C das Integral Z 1 2 1 √ e− 2 λ dλ = 0. 2π Γ Wir fixieren T > 0 und bauen einen geschlossenen Weg ΓT aus 4 Geradenst¨ ucken (n¨amlich ein Rechteck mit Ausdehnung von −T bis T in reeller Richtung, und von 0 bis ² in imagin¨arer Richtung): ΓT1 (t) = t (t ∈ [−T, T ]), ΓT2 (t) = T + it (t ∈ [0, ²]), ΓT3 (t) = T + i² − t (t ∈ [−T, T ]), ΓT4 (t) = −T + i(² − t) (t ∈ [0, ²]). ur Die L¨ange der Wege ΓT2 und ΓT4 ist von T unabh¨angig, w¨ahrend der Integrand f¨ T → ∞ auf diesen Wegen gleichm¨aßig gegen Null geht. Daher ist " # Z Z 1 1 − 12 λ2 − 21 λ2 lim √ e e dλ + √ dλ = 0, T →∞ 2π ΓT1 2π ΓT3 also
Z ∞ Z ∞ 2 1 2 1 1 1 1= √ e− 2 t dt = √ e− 2 (t+i²) dt. 2π −∞ 2π −∞ Wir berechnen nun die Fouriertransformation von ρσ : Z ∞ t2 1 1 √ F(ρσ )(ξ) = √ e−iξt e− 2σ2 dt 2π σ 2π −∞ Z ∞ τ2 1 = e−iξτ σ− 2 dτ 2π −∞ Z ∞ 2 1 1 2 2 1 = e− 2 (τ +iσξ) − 2 σ ξ dτ 2π −∞ Z ∞ 2 1 1 − σ 2 ξ2 1 2 √ e− 2 (τ +iσξ) dτ = √ e 2π 2π −∞ 1 − σ 2 ξ2 1 = √ e 2 = ρ1/σ (ξ). σ 2π Aussage (e) ist offensichtlich.
¤
4.2.2. Die Umkehrformel. Satz 4.2.3. Sei f : [−∞, ∞) → C eine schnell fallende Funktion und f˜ ihre Fouriertransformierte. Dann ist f¨ ur alle t ∈ R Z ∞ 1 eiξt f˜(ξ) dξ. f (t) = √ 2π −∞
84
Beweis. Die Grundidee ist eine Vertauschung der Integrationsreihenfolge, aber leider geht es nicht ohne Tricks. Der naive Ansatz w¨ urde n¨amlich ergeben Z ∞ 1 √ eiξt f˜(t) dξ 2π −∞ Z ∞ Z ∞ 1 eiξt e−iξs f (s) ds dξ = 2π −∞ −∞ Z ∞Z ∞ 1 = eiξ(t−s) dξ f (s) ds. 2π −∞ −∞ Das innere Integral konvergiert aber nicht absolut, deshalb ist die Vertauschung der Integrationsreihenfolge nicht gerechtfertigt. Das Doppelintegral als Hintereinanderausf¨ uhrung zweier Lebesgueintegrale auf R existiert zwar wegen Lemma 4.1.2: f˜ ist, wie wir aus Satz 4.1.10 wissen, eine schnell fallende Funktion. Es ist aber kein Lebesgueintegral auf R × R. Deshalb haben wir vorhin als Hilfsmittel die Dichtefunktion der Normalverteilung untersucht. Wir beobachten zun¨achst Z ∞ Z ∞ 1 1 lim eiξt f˜(ξ) dξ. ρ1/² (ξ)eiξt f˜(ξ) dξ = √ ²→0 −∞ ² 2π −∞ Das folgt aus dem Satz von der dominierten Konvergenz und Lemma 4.2.2(e). Wir berechnen nun mit Hilfe von Lemma 4.2.2(d) Z ∞ 1 ρ1/² (ξ)eiξt f˜(ξ) dξ −∞ ² Z ∞ Z ∞ 1 iξt 1 e−iξs f (s) ds dξ = ρ1/² (ξ)e √ 2π −∞ −∞ ² Z ∞ Z ∞ 1 1 = f (s) √ e−iξ(s−t) ρ1/² (ξ) dξ ds ² 2π −∞ −∞ Z ∞ 1 = f (s) ρg 1/² (t − s) ds ² −∞ Z ∞ = f (s)ρ² (t − s) ds. −∞
Wegen Lemma 4.2.2(b) konvergiert der letzte Ausdruck f¨ ur ² → 0 gegen f (t).
¤
Bemerkung 4.2.4. Beachten Sie, dass die Umkehrformel — bis auf das Vorzeichen des Exponenten — genauso aussieht wie die Fouriertransformation selbst. Satz 4.2.5. Die Fouriertransformation ist eine bijektive Abbildung des Raumes S((−∞, ∞), C) auf S((−∞, ∞), C). Beweis. Wir wissen bereits, dass die Fouriertransformation F schnell fallende Funktionen auf schnell fallende Funktionen abbildet. Wir definieren F −1 durch die Umkehrformel und m¨ ussen anschließend rechtfertigen, dass dies tats¨achlich die Umkehrabbildung von F ist. Z ∞ 1 eiξs g(ξ) dξ. [F −1 (g)](t) := √ 2π −∞
85
Da die Umkehrformel genauso gebaut ist wie die Fouriertransformation selbst, kann man ebenso beweisen, dass F −1 schnell fallende Funktionen auf schnell fallende Funktionen abbildet. Nach Satz 4.2.3 ist F −1 F die Identit¨at auf S((−∞, ∞), C). Wieder auf Grund der symmetrischen Bauweise der Formeln kann man ebenso beweisen, dass FF −1 die Identit¨at ist. ¤
4.2.3. Der Faltungssatz. Ebenso wie die Laplacetransformation wird durch die Fouriertransformation die Faltung in eine punktweise Multiplikation u uhrt. ¨bergef¨ Satz 4.2.6. Seien f, g ∈ S((−∞, ∞), C) und f˜, g˜ ihre Fouriertransformierten. Dann gilt f¨ ur die Fouriertransformation der Faltung und des punktweisen Produktes: 1 √ f] ∗ g(ξ) = f˜(ξ)˜ g (ξ), 2π 1 fg · g(ξ) = √ [f˜ ∗ g˜](ξ). 2π Beweis.
= = = = =
1 √ F(f ∗ g)(ξ) 2π Z ∞ 1 e−iξt [f ∗ g](t) dt 2π −∞ Z ∞ Z ∞ 1 e−iξt f (t − s)g(s) ds dt 2π −∞ −∞ Z ∞ Z ∞ 1 e−iξs g(s) e−iξ(t−s) f (t − s) dt ds 2π −∞ −∞ · ¸ Z ∞ Z ∞ 1 1 −iξs √ e g(s) √ e−iξτ f (τ ) dτ ds 2π −∞ 2π −∞ g˜(ξ)f˜(ξ).
Da die Umkehrformel genauso gebaut ist wie die Fouriertransformation, l¨aßt sich ebenso beweisen 1 √ F −1 (u ∗ v) = F −1 (u) · F −1 (v). 2π Setzt man u = f˜ und v = g˜, erh¨alt man damit 1 √ F −1 (f˜ ∗ g˜) = f · g, 2π 1 √ (f˜ ∗ g˜) = F(f · g). 2π ¤
86
4.3. Fouriertransformation auf L2 ((−∞, ∞), C). Wir haben bisher die Fouriertransformation nur auf einer sehr kleinen und speziellen Klasse von Funktionen definiert. In diesem Unterabschnitt zeigen wir, dass der Raum L2 ((−∞, ∞), C) sehr gut zur Fouriertransformation passt. 4.3.1. Der Satz von Plancherel. Lemma 4.3.1. Es gilt S((−∞, ∞), C) ⊂ L2 ((−∞, ∞), C). Beweis. Sei f eine schnell fallende Funktion. Es ist Z ∞ |f (t)|2 dt −∞ Z ∞ 1 = [|f (t)|2 + |tf (t)|2 ] dt 1 + t2 −∞ · ¸Z ∞ 1 ≤ sup |f (t)| + sup |tf (t)| dt < ∞. 1 + t2 t∈R t∈R −∞ ¤ Satz 4.3.2 (Satz von Plancherel). Seien f, g ∈ S((−∞, ∞), C) mit den Fouriertransformierten f˜ und g˜. Dann gilt f¨ ur Norm und inneres Produkt im Sinne von L2 : hf˜, g˜iL2 ((−∞,∞),C) = hf, giL2 ((−∞,∞),C) , kf˜kL2 ((−∞,∞),C) = kf kL2 ((−∞,∞),C) . Beweis. Auch der Satz von Plancherel basiert auf Umkehrung der Integrationsreihenfolge, und wieder ben¨otigen wir als technischen Trick die Multiplikation mit der Dichte einer Normalverteilung, um die Integrale absolut konvergent zu halten. Es ist nach dem Satz u ¨ber die dominierte Konvergenz √ Z ∞ Z ∞ 2π ˜ lim g (ξ) dξ = f˜(ξ)˜ g (ξ) dξ. ρ1/² (ξ)f (ξ)˜ ²→0+ ² −∞ −∞ Wir berechnen daher mit Hilfe von Lemma 4.2.2 √ Z ∞ 2π ρ1/² (ξ)f˜(ξ)˜ g (ξ) dξ ² −∞ Z ∞ Z ∞ Z ∞ 1 ρ1/² (ξ) e−iξs f (s) ds e−iξt g(t) dt dξ = √ 2π² −∞ −∞ −∞ Z ∞ Z ∞ Z ∞ 1 = e−iξ(t−s) ρ1/² (ξ) dξ dt ds f (s) g(t) √ 2π² −∞ −∞ −∞ Z ∞ Z ∞ 1 = f (s) g(t) ρg 1/² (t − s) dt ds ² −∞ −∞ Z ∞ Z ∞ = f (s) g(t)ρ² (t − s) dt ds. −∞
−∞
Wegen Lemma 4.2.2(d) konvergiert das innere Integral im letzten Ausdruck gegen g(s), sodass wir f¨ ur ² → 0+ erhalten hf˜, g˜iL2 ((−∞,∞),C) = hf, giL2 ((−∞,∞),C) .
87
Offensichtlich folgt dann kf˜k2L2 ((−∞,∞),C) = hf˜, f˜iL2 ((−∞,∞),C) = hf, f iL2 ((−∞,∞),C) = kf k2L2 ((−∞,∞),C) . ¤ Mit Hilfe dieses Satzes k¨onnen wir formal die Fouriertransformation f¨ ur L2 Funktionen erkl¨aren. Wir ben¨otigen wieder ein Lemma u ¨ber Dichtheit der schnell fallenden Funktionen, das wir ohne Beweis bringen: Lemma 4.3.3. S((−∞, ∞), C) liegt dicht in L2 ((−∞, ∞), C), das heißt, zu jedem f ∈ L2 ((−∞, ∞), C) gibt es eine Folge fn aus S((−∞, ∞), C) sodass lim kfn − f kL2 ((−∞,∞),C) = 0.
n→∞
Satz 4.3.4. Es gibt eine eindeutig bestimmte stetige lineare Abbildung FL2 : L2 ((−∞, ∞), C) → L2 ((−∞, ∞), C) sodass die Einschr¨ ankung von FL2 auf S((−∞, ∞), C) die Fouriertransformation ist. Ferner ist FL2 eine unit¨ are Abbildung, das heißt, f¨ ur alle f, g ∈ L2 ((−∞, ∞), C): hFL2 (f ), FL2 (g)iL2 ((−∞,∞),C) = hf, giL2 ((−∞,∞),C) , kFL2 (f )kL2 ((−∞,∞),C) = kf kL2 ((−∞,∞),C) . Die Abbildung FL2 ist bijektiv, und die Einschr¨ ankung ihrer Umkehrabbildung auf S(−∞, ∞), C) ist die umgekehrte Fouriertransformation F −1 . Beweis. Der Beweis ist eine Standardmethode aus der Funktionalanalysis. Sei f ∈ L2 ((−∞, ∞), C). Wegen Lemma 4.3.3 existiert mindestens eine Folge von schnell fallenden Funktionen fn ∈ S((−∞, ∞), C) mit kfn − f kL2 ((−∞,∞),C) → 0. Wir definieren FL2 als FL2 (f ) = limn→∞ F(fn ). Der Grenzwert existiert, denn fn ist eine Cauchyfolge in L2 ((−∞, ∞), C), und nach dem Satz von Plancherel ist kf˜n − f˜m kL2 ((−∞,∞),C) = kfn − fm kL2 ((−∞,∞),C) . Daher ist auch f˜n eine Cauchyfolge und konvergiert wegen der Vollst¨andigkeit des Raumes L2 ((−∞, ∞), C). Nun muss zun¨achst gezeigt werden, dass der Grenzwert unabh¨angig von der Folge ist. Konvergieren zwei Folgen fn , gn gegen f , so gilt kfn − gn kL2 ((−∞,∞),C) → 0. Nach dem Satz von Plancherel gilt also auch kf˜n − g˜n kL2 ((−∞,∞),C) → 0, und deshalb haben beide Folgen denselben Grenzwert. Damit ist FL2 definiert und ist die stetige Ausdehnung von F. Es braucht jetzt noch einigen Schreibaufwand, um mit Hilfe von Grenz¨ uberg¨angen die Linearit¨at, Normerhaltung und die Umkehrabbildung vom Raum S((−∞, ∞), C) auf den Raum L2 ((−∞, ∞), C) auszuweiten. ¤
Definition 4.3.5. Die Fouriertransformation auf L2 ((−∞, ∞), C) ist die stetige Ausdehnung der Fouriertransformation auf S((−∞, ∞), C) entsprechend Satz 4.3.4. Wenn keine Verwechslung zu bef¨ urchten ist, verwenden wir f¨ ur diese Abbildung ebenfalls die Symbole f˜ = F(f ).
88
R∞ Bemerkung 4.3.6. F¨ ur f ∈ L2 ((−∞, ∞), C) ist das Integral √12π −∞ e−iξt f (t) dt nicht notwendigerweise konvergent. Daher k¨ onnen wir die Fouriertransformation einer L2 -Funktion nur wie oben indirekt, u ¨ber die Approximation, definieren. Ist allerdings f auch Element von L1 ((−∞, ∞), C), so konvergiert das Fourierintegral absolut, und man kann beweisen, dass das Fourierintegral und die Definition u ¨ber Approximation dieselbe Funktion f˜ liefern.
4.3.2. Die R¨ aume Wk,2 ((−∞, ∞), C). An der Fouriertransformation kann man erkennen, wie oft sich eine Funktion differenzieren l¨aßt, wenn man einen geeigneten Differenzierbarkeitsbegriff w¨ahlt. Lemma 4.3.7. Seien f, g ∈ L2 ((−∞, ∞), C) mit Fouriertransformierten f˜, g˜. Dann sind ¨ aquivalent: (a) Es gibt eine stetige Funktion f1 sodass f (t) = f1 (t) f¨ ur fast alle t ∈ R, und Rt f1 (t) − f1 (s) = s g(τ ) dτ f¨ ur alle s, t ∈ R. ur fast alle ξ ∈ R gilt g˜(ξ) = iξ f˜(ξ). (b) F¨ Beweis. Wir geben nur eine Beweisskizze f¨ ur (b) ⇒ (a): Zun¨achst braucht man folgendes Dichtheitsresultat: Es gibt eine Folge schnell fallender Funktionen f˜n sodaß f˜n → f˜ und iξ f˜n → iξ f˜ = g˜ in L2 ((−∞, ∞), C). F¨ ur schnell fallende Funktionen wissen wir, das iξ f˜n = fen0 . Wegen Plancherel folgt fn → f und fn0 → g in L2 ((−∞, ∞), C). Konvergenz in L2 impliziert aber, dass eine Teilfolge existiert, die fast u ¨berall konvergiert. O.B.d.A. nehmen wir an, dass die ganze Folge fn fast u ur fast alle s, t gilt dann ¨berall konvergiert. F¨ Z t Z t f (t) − f (s) = lim (fn (t) − fn (s)) = lim fn0 (τ ) dτ = g(τ ) dτ. n→∞
n→∞
s
s
¤
Definition 4.3.8. Sei k ≥ 0 (nicht notwendig ganzzahlig). Wir definieren: © ª Wk,2 ((−∞, ∞), C) = f ∈ L2 ((−∞, ∞), C) | (1 + ξ 2 )k/2 f (ξ) ∈ L2 ((−∞, ∞), C) . Wir haben bereits in Definition 1.1.5 Wk,p -R¨aume definiert. F¨ ur p = 2 ist diese Definition mit Definition 4.3.8 a¨quivalent: Satz 4.3.9. Sei k ∈ N. Es sind ¨ aquivalent: k,2 (a) f ∈ W ((−∞, ∞), C) im Sinne von Definition 4.3.8. (b) Es gibt Funktionen f0 , · · · , fk ∈ L2 ((−∞, ∞), C), sodass f = f0 fast u ¨berall, und f¨ ur j = 0, · · · , k − 1 jeweils fj die Stammfunktion von fj+1 ist. In diesem Fall sind die Normen v u k uX t kfj k2 2
L ((−∞,∞),C)
j=0
aquivalent. ¨
und k(1 + ξ 2 )k/2 f˜kL2 ((−∞,∞),C)
89
¨ Beweis. Die Aquivalenz von (a) und (b) folgt aus wiederholter Anwendung von Lemma 4.3.7. Dabei sind die Fouriertransformationen der Funktionen fj gegeben durch f˜j (ξ) = (iξ)j f˜(ξ). ¨ ¨ Die Aquivalenz der Normen erhalten wir durch folgende Uberlegung: Z ∞X k k k X X kfj k2L2 ((−∞,∞),C) = k(iξ)j f k2L2 ((−∞,∞),C) = |ξ 2 |j |f (ξ)|2 dξ. j=0
−∞ j=0
j=0
Andererseits ist
Z 2 k/2
k(1 + ξ )
f k2L2 ((−∞,∞),C)
∞
=
(1 + ξ 2 )k |f (ξ)|2 dξ.
−∞
¨ Die Aquivalenz der Normen folgt nun aus 2−k (1 + ξ 2 )k ≤ (max(1, ξ 2 ))k ≤ 1 + ξ 2k ≤
k X j=0
|ξ 2 |j ≤
k µ ¶ X k j=0
j
|ξ 2 |j = (1 + ξ 2 )k . ¤
Definition 4.3.8 ist auch f¨ ur nicht ganzzahlige k sinnvoll. Obwohl es auf ersten Blick v¨ollig theoretisch und u ussig erscheint, R¨aume mit gebrochener Diffe¨berfl¨ renzierbarkeit zu definieren, spielen solche R¨aume in der Theorie der partiellen Differentialgleichungen in mehreren Variablen eine große Rolle. Das versteht man erst, wenn man — analog zum eindimensionalen Fall — Wk,2 -R¨aume in mehreren Variablen definiert. Liegt zum Beispiel eine Funktion auf der oberen Halbebene ( R × [0, ∞) → C f: (x1 , x2 ) 7→ f (x1 , x2 ) im Raum W1,2 (R × [0, ∞), C), so liegt ihre Einschr¨ankung auf den Rand x2 = 0 (man sagt auch: ihre Spur) ( R →C f1 : x 7→ f (x, 0) 1
1
nur mehr im Raum W 2 ,2 (R, C). Andererseits l¨aßt sich jede Funktion in W 2 ,2 (R, C) als Spur einer Funktion aus W1,2 (R × [0, ∞), C) interpretieren. Diese durchaus nicht trivialen S¨atze u ¨ber den Zusammenhang der Differenzierbarkeit von Funktionen und ihren Randwerten, die Spurens¨atze, bilden das R¨ uckgrat einer exakten Formulierung von partiellen Differentialgleichungen mit Randbedingungen. 4.3.3. Fouriertransformation und partielle Differentialgleichungen. Von den vielen Anwendungen der Fouriertransformation zeigen wir nur ein Beispiel einer partiellen Differentialgleichung: Wir betrachten zwei Gleichungen, n¨amlich (4.3.1)
∂ ∂2 u(t, x) = u(t, x) (t ≥ 0, x ∈ R, ) ”W¨armeleitungsgleichung”, ∂t ∂x2 u(0, x) = u0 (x) (x ∈ R) Anfangsbedingung, u(t, ·) ∈ L2 ((−∞, ∞), C),
90
und
(4.3.2)
∂2 ∂2 u(t, x) = u(t, x) (t ≥ 0, x ∈ R, ) ”Wellengleichung”, ∂t2 ∂x2 u(0, x) = u0 (x) (x ∈ R) Anfangsbedingung 1, ∂ u(0, x) = u1 (x) (x ∈ R) Anfangsbedingung 2, ∂t ∂ u(t, ·), u(t, ·) ∈ L2 ((−∞, ∞), C). ∂x
∂ Die Bedingungen u(t, ·) ∈ L2 und ∂x u(t, ·) ∈ L2 ersetzen die Randbedingungen, die eine solche Gleichung ben¨otigen w¨ urde, wenn x auf ein endliches Intervall beschr¨ankt w¨are. Sie sagen, grob gesprochen, dass f¨ ur x → ±∞ die Funktion u zumindest in einer Art Mittelung gegen 0 geht.
Wir l¨osen zuerst die W¨armeleitungsgleichung mittels Fouriertransformation: Dabei transformieren wir die x-Variable, das heißt (zumindest formal) Z ∞ 1 u ˜(t, ξ) = √ e−iξx u(t, x) dx. 2π −∞ Es folgt ∂ u ˜(t, ξ) ∂t u ˜(0, ξ)
= −ξ 2 u ˜(t, ξ), = u ˜0 (ξ).
Die zweite partielle Ableitung nach x wurde durch eine Multiplikation mit −ξ 2 ersetzt. F¨ ur jedes feste ξ kann die Gleichung jetzt leicht gel¨ost werden: r π √ −tξ 2 u ˜(t, ξ) = e u ˜0 (ξ) = ρ (ξ)˜ u0 (ξ). t 1/ 2t Hier ist ρσ wieder die Dichtefunktion der Normalverteilung. Der Faltungssatz ergibt r π 1 √ √ [F −1 (ρ^ u ˜(t, x) = 1/ 2t )] ∗ u0 , t 2π 1 √ u(t, x) = √ ( 2t ρ√2t ∗ u0 )(x) 2t Z ∞ 2 1 √ = e−(x−y) /4t u0 (y) dy. 4πt −∞ Aber auch ohne die Fouriertransformation umzukehren, erh¨alt man qualitative Aussagen u ur jedes feste t > 0 und k ∈ N die Funktion ¨ber die L¨osung: Zum Beispiel ist f¨ ξ 7→ (1 + ξ 2 )k/2 e−tξ
2
beschr¨ankt. Wenn wir annehmen u0 ∈ L2 ((−∞, ∞), C), so folgt daraus sofort (1 + ξ 2 )k/2 u ˜(t, ·) ∈ L2 ((−∞, ∞), C). Daher ist dann f¨ ur feste t > 0 die Funktion x 7→ u(t, x) in Wk,2 ((−∞, ∞), C) f¨ ur alle k. Im Verlauf der Zeit gewinnt die L¨osung der W¨armeleitungsgleichung Glattheit.
91
Wir betrachten nun die Wellengleichung: ∂2 u ˜(t, ξ) = ∂t2 u ˜(0, ξ) = ∂ u ˜(0, ξ) = ∂t
−ξ 2 u ˜(t, ξ), u ˜0 (ξ), u ˜1 (ξ).
Wir l¨osen f¨ ur feste ξ: u ˜(t, ξ) = c˜1 (ξ)eitξ + c˜2 (ξ)e−itξ . mit geeigneten Funktionen c˜1 , c˜2 , deren inverse Fouriertransformationen wir mit c1 , c2 bezeichnen. Eine direkte Rechnung zeigt Z ∞ 1 eitξ c˜1 (ξ) = √ eitξ e−isξ c1 (s) ds 2π −∞ Z ∞ 1 = √ e−iξ(s−t) c1 (s) ds 2π −∞ Z ∞ 1 = √ e−iξτ c1 (τ + t) dτ 2π −∞ = [c1^ (· + t)](ξ). Ebenso ist e−itξ c˜2 (ξ) = [c2^ (· − t)](ξ). Wir erhalten die Formel von d’Alembert: u(t, x) = c1 (t + x) + c2 (x − t). Wenn wir statt dessen im Frequenzbereich weiter rechnen und die Anfangsbedingungen ber¨ ucksichtigen, erhalten wir 1 u ˜(t, ξ) = cos(tξ)˜ u0 (ξ) + sin(tξ)˜ u1 (ξ) dξ, ξ ∂ u ˜(t, ξ) = −ξ sin(t, ξ)˜ u0 (ξ) + cos(ξ)˜ u1 (ξ). ∂t oder in Matrixschreibweise µ ¶ µ ¶µ ¶ ξu ˜(t, ξ) cos(tξ) sin(tξ) ξu0 (ξ) = . ∂ − sin(tξ) cos(tξ) u1 (ξ) ˜(t, ξ) ∂t u Hier werden die Anfangsdaten mit einer unit¨aren Matrix multipliziert und es ist °µ ¶° °µ ¶° ° ξu ° ° ˜0 (ξ) ° ° ∂ ˜(t, ξ) ° = ° ξ∂ u °. ° ˜(t, ξ) ° ° ∂t u ˜1 (ξ) ° ∂t u Wir kehren jetzt die Fouriertransformation um und erhalten nach Plancherel f¨ ur jedes t ≥ 0: °µ ∂ °µ ∂ ¶° ¶° ° ° ° u(t, ·) ° ° ∂x ° ∂x u0 ° =° . ° ∂ u(t, ·) ° 2 ° ° 2 u 1 2 2 ∂t
L ((−∞,∞),C )
L ((−∞,∞),C )
Definieren wir als Energie der L¨osung die Summe von potentieller und kinetischer Energie Z Z 1 ∞ ∂ 1 ∞ ∂ | u(t, x)|2 dx + | u(t, x)|2 dx, E(t) = 2 −∞ ∂x 2 −∞ ∂t
92
so erhalten wir also den Energieerhaltungssatz. Anders als bei der W¨armeleitungsgleichung gibt es aber hier keine Gl¨attung.