Modelli Dinamici Discreti
Ernesto Salinelli, Franco Tomarelli
Modelli Dinamici Discreti 2a edizione
Ernesto Salinelli Dipartimento di Scienze Economiche e Metodi Quantitativi Università del Piemonte orientale “A. Avogadro” – Novara Franco Tomarelli Dipartimento di Matematica “F. Brioschi” Politecnico di Milano – Milano
In copertina: “Tempo di fioritura”, Gianni Dova, 1964. Galleria Il Castello, arte moderna e contemporanea, Milano.
ISBN 978-88-470-1075-8 Springer Milan Berlin Heidelberg New York e-ISBN 978-88-470-1076-5 Springer Milan Berlin Heidelberg New York Springer-Verlag fa parte di Springer Science+Business Media springer.com © Springer-Verlag Italia, Milano 2009
Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclusivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68. Le riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di specifica autorizzazione rilasciata da AIDRO,Via Corso di Porta Romana n. 108, Milano 20122, e-mail
[email protected] e sito web www.aidro.org. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla legge. 9
8
7
6
5
4
3
2
1
Impianti: PTP-Berlin, Protago TEX-Production GmbH, Germany (www.ptp-berlin.eu) Stampa: GRAFICHE PORPORA, Segrate (MI)-Italy Stampato in Italia Springer-Verlag Italia srl – Via Decembrio 28 –20137 Milano
Prefazione
L’uso dei modelli matematici ha assunto un ruolo di primaria importanza in moltissimi campi: dalla meteorologia alla descrizione sintetica di reazioni negli impianti chimici, dalla elaborazione di dati relativi a sistemi finanziari, allo studio di popolazione biologiche. Questi sono solo alcuni casi in cui anche il comune cittadino (e non solo l’esperto del settore) viene suo malgrado coinvolto nel dibattito, se non addirittura nella scelta, tra impostazioni alternative, allo scopo di mantenere l’evoluzione dei fenomeni descritti da tali modelli entro ` dunque auspicabile che almeno elementari conolimiti ritenuti accettabili. E scenze delle propriet`a dei modelli matematici diventino un patrimonio il pi` u possibile diffuso tra gli abitanti del “villaggio globale”. Quando la modellazione matematica si riferisce a fenomeni dipendenti dal tempo, la terminologia moderna precisa la nozione di modello matematico definendo la nozione di sistema dinamico. Il termine discreto, che compare nel titolo, indica la natura dei modelli che prenderemo in esame: a partire da un numero finito di istanti in cui si hanno informazioni sul fenomeno in esame, tali modelli ne descrivono l’evoluzione futura mediante i valori assunti in un insieme discreto di tempi successivi, detti passi temporali (ad esempio, i multipli interi positivi di una fissata unit` a di tempo), ma non la descrizione per tutti i valori del tempo considerato come una grandezza continua o, pi` u precisamente, analogica. Assai spesso nelle applicazioni anche le grandezze osservate risultano essere discrete (si usa dire “quantizzate”) per le caratteristiche degli strumenti di misura e per le manipolazioni di tipo elettrico o elettronico che, nell’attuale fase dello sviluppo tecnologico, inevitabilmente sono effettuate su tali grandezze. Tuttavia, in molti casi pratici la quantizzazione ha un ordine di grandezza cos`ı ridotto da poter essere trascurata; per questo motivo supporremo spesso che le grandezze in esame possano assumere una gamma continua di valori. Negli anni recenti si `e rivolta particolare attenzione allo studio dei sistemi dinamici non lineari, ed in questo campo si sono sviluppate nuove idee ed utili paradigmi interpretativi che hanno contribuito ad una maggiore comprensione di numerosi problemi sia teorici che di rilevante interesse appli-
VI
Prefazione
cativo. Per comprendere cosa si intende con il termine non lineare, `e utile ricordare cosa si intende in matematica con il termine problema lineare: un problema si dice lineare se vi `e una proporzionalit` a tra i dati in ingresso (input) e gli effetti risultanti (output), e alla somma di pi` u cause corrisponde la somma dei rispettivi effetti. In generale si sanno risolvere in modo soddisfacente i problemi lineari, o perlomeno si sanno approssimare bene numericamente, ma i problemi fisici, chimici, biologici, economici, demografici e dell’ingegneria, sono pi` u correttamente descritti da modelli non lineari. Purtroppo si sa dire molto meno sulle soluzioni dei problemi non lineari, e tali soluzioni sono spesso caratterizzate da un comportamento complesso, instabilit` a e dipendenza sensibile dai dati iniziali, al punto che in taluni casi viene descritto come caos. Con questa suggestiva, ma in parte fuorviante, espressione si intende la possibilit` a di avere evoluzioni estremamente complicate, anche a partire da semplici modelli deterministici non lineari: questo produce l’apparente paradosso per cui, in tali casi, la estrema sensibilit` a nella dipendenza dai dati iniziali (sempre affetti da errori sperimentali) rende assai debole la speranza di effettuare previsioni dettagliate di lungo periodo. Tale situazione `e ben illustrata dall’esempio della meteorologia, ferma restando la possibilit` a oggi realizzata di affidabili previsioni nel breve periodo. Queste considerazioni non mettono in discussione l’efficacia di tali metodiche ma sono un invito a ricordarne i limiti, al fine di non estrapolare a lungo termine gli effetti dedotti dall’analisi dei modelli non lineari, ed a tenere conto delle instabilit` a ad essi intrinsecamente associata. Questo volume nasce da una precisa esigenza didattica: intende fornire una presentazione elementare ed autocontenuta della modellistica matematica discreta con una introduzione all’analisi dei sistemi dinamici discreti. Si illustrano alcuni metodi qualitativi della modellazione matematica, discutendo cosa si intende per soluzione di tali modelli mediante semplici esempi (Capitolo 1); sono presentate alcune tecniche di soluzione di equazioni alle differenze lineari (Capitolo 2) e sono studiate le propriet` a qualitative delle soluzioni e la loro struttura nel caso di modelli non lineari, con particolare riferimento alle propriet` a di stabilit` a (Capitoli 3 e 4). I metodi e le tecniche per lo studio dei modelli discreti sono dispersi nella letteratura matematica, economica, biologica, demografica e dell’ingegneria. Qui si `e cercato di presentare la materia in modo unitario, sviluppando dapprima esempi e motivazioni, per poi affrontare lo studio dei modelli lineari e successivamente di quelli non lineari, cercando di unificare il punto di vista modellistico con quelli dell’Analisi Matematica, della Teoria dei Sistemi, dell’Algebra Lineare, del Calcolo delle Probabilit` a, del Calcolo numerico e della Matematica Finanziaria. Il caso vettoriale, pi` u tecnico come notazioni e metodi, `e presentato a parte negli ultimi due capitoli (Capitoli 5 e 6), limitandone la trattazione esclusivamente ai problemi lineari.
Prefazione
VII
L’esposizione della teoria `e resa graduale dalla proposta di alcuni esercizi di difficolt` a crescente. Altri esercizi di riepilogo sono raggruppati in apposite sezioni. Le soluzioni di gran parte degli esercizi sono descritte in dettaglio nel Capitolo 7. La Teoria `e accompagnata da algoritmi e suggerimenti per effettuare prove numeriche e simulazioni al computer. A quest’ultimo proposito, ricordiamo che i sistemi dinamici discreti sono essenzialmente iterazioni di funzioni, e che i computer eseguono con molta efficienza le iterazioni di algoritmi. Invitiamo dunque il lettore ad affrontare personalmente lo svolgimento degli esercizi sia mediante il calcolo manuale (quando `e possibile), sia cercando le propriet` a qualitative con il metodo grafico ed i risultati teorici del testo, sia effettuando simulazioni numeriche con un personal computer. Attualmente sono disponibili software particolarmente adatti sia alla iterazione di calcoli simbolici sia alla gestione della grafica. Questo rende possibile, mediante opportune iterazioni di polinomi, generare sul monitor quelle immagini affascinanti ed intriganti denominate frattali anche senza conoscere gli aspetti pi` u tecnici della sottostante Teoria Geometrica della Misura. Nel testo si forniscono comunque (Capitolo 4 ed Appendice F) alcune nozioni di base per lo studio di tali enti e la definizione di dimensione frattale e di misura di un insieme frattale. Per tutti gli esempi ed esercizi affrontati si invita il lettore a porre l’attenzione non solo sulle particolarit` a algebriche del problema formalizzato, quanto sul fenomeno modellizzato, il significato di modello matematico, il dominio dei parametri in cui il modello `e sensato, il valore predittivo del modello e la sua computabilit` a a partire da dati sperimentali affetti da inevitabili errori di misura. In questa prospettiva la matematica svolge un ruolo di retroazione tra lo studio e la formulazione di modelli descrittivi e predittivi. Qualora si pervenga ad un adeguato livello di astrazione e di rigore nella formulazione di tali modelli, si possono sviluppare idee innovative che permettono di comprendere ed unificare problemi applicativi diversi attraverso l’identificazione di strutture generali e l’elaborazione di teorie di ampia applicabilit` a. Ringraziamo Maurizio Grasselli, Stefano Mortola e Antonio Cianci per gli utili suggerimenti e le osservazioni al testo e Irene Sabadini per l’accurata redazione delle numerose figure. Milano, giugno 2002
Gli Autori
Prefazione alla seconda edizione
Questa seconda edizione del volume si avvale dell’esperienza didattica maturata nel corso di Modelli Dinamici Discreti tenuto in questi anni presso il Politecnico di Milano: numerose correzioni sono state apportate, la presentazione di molti esempi ed esercizi `e stata migliorata ed ampliata; infine `e stato inserito un nuovo capitolo su matrici positive, grafi e loro propriet` a utili nell’analisi di reti e motori di ricerca. Vogliamo esprimere un sentito ringraziamento a Francesca Bonadei per l’incoraggiamento ed il supporto forniti, ad Alberto Perversi per la valida consulenza sulla gestione della grafica ed agli studenti del corso di studi in Ingegneria Matematica per l’entusiasmo dimostrato e le utili osservazioni. Milano, luglio 2008
Ernesto Salinelli, Franco Tomarelli
Guida alla lettura
I primi due capitoli sono del tutto elementari: gli unici prerequisiti sono le propriet` a dei polinomi. Il Capitolo 3 richiede la conoscenza della nozione di continuit` a ed il calcolo di derivate di funzioni di una variabile, nel Capitolo 4 sono utilizzate alcune elementari nozioni di Topologia. Nei Capitoli 5, 6, 7, dedicati al caso vettoriale, si utilizzano alcune tecniche di Algebra Lineare. Tutti i prerequisiti, anche se elementari, sono comunque richiamati nel testo o nelle Appendici. Le dimostrazioni riportate, stampate con un carattere tipografico ridotto, sono utili per una comprensione approfondita, ma possono omesse nel corso di una prima lettura. I primi tre capitoli possono essere oggetto di un modulo didattico (semiannualit` a) elementare; in una prima lettura possono essere tralasciati i paragrafi 2.5, 2.6, 2.7, 2.8, 3.3, 3.4, 3.9 senza inconvenienti per la comprensione. I Capitoli 4, 5 ,6 ,7 possono essere oggetto in un modulo didattico avanzato. I capitoli successivi al primo sono largamente indipendenti tra loro, in modo tale da rendere possibili vari percorsi di lettura a seconda dell’interesse per alcune classi di problemi rispetto ad altre. Segnaliamo alcuni possibili percorsi di lettura dei vari capitoli.
Indice
Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V Prefazione alla seconda edizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .VIII Guida alla lettura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX 1
Fenomeni ricorsivi ed equazioni alle differenze . . . . . . . . . . . . . 1 1.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Metodo grafico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.4 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2
Equazioni alle differenze lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Equazioni lineari ad un passo a coefficienti costanti . . . . . . . . . . 2.2 Equazioni lineari ad n passi a coefficienti costanti . . . . . . . . . . . . 2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 La Z-trasformata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Equazioni lineari a coefficienti variabili . . . . . . . . . . . . . . . . . . . . . 2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8 La Trasformata Discreta di Fourier . . . . . . . . . . . . . . . . . . . . . . . . 2.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
25 25 32 41 48 51 62 66 72 83
Sistemi dinamici discreti: equazioni scalari ad un passo . . . . 87 3.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.2 Ancora sull’analisi grafica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.3 Comportamento asintotico in ipotesi di monotonia . . . . . . . . . . . 96 3.4 Teorema delle contrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
XII
Indice
3.5 3.6 3.7 3.8 3.9 3.10
La nozione di stabilit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Condizioni di stabilit` a basate sulle derivate . . . . . . . . . . . . . . . . . 107 Strategie di pesca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Studio qualitativo e stabilit` a delle orbite periodiche . . . . . . . . . . 116 Soluzioni in forma chiusa per alcuni s.d.d. non lineari . . . . . . . . 120 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4
Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 4.1 Dinamica della crescita logistica . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 4.2 Il teorema di Sharkovsky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. . . . . . . . . 138 4.4 Caos ed insiemi frattali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 4.5 Coniugazione topologica di sistemi dinamici discreti . . . . . . . . . . 162 4.6 Metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.7 Sistemi dinamici discreti nel campo complesso . . . . . . . . . . . . . . . 170
5
Sistemi dinamici discreti: equazioni vettoriali . . . . . . . . . . . . . . 185 5.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 5.2 Applicazioni alla genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari . . . . . . . . . 197 5.4 Matrici strettamente positive e Teorema di Frobenius-Perron . . 204 5.5 Applicazioni alla demografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 5.6 Equazioni vettoriali lineari affini . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.7 Sistemi dinamici discreti vettoriali non lineari . . . . . . . . . . . . . . . 218 5.8 Schemi numerici per la risoluzione di problemi lineari . . . . . . . . 221 5.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
6
Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 6.1 Esempi, definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 6.3 Passeggiate casuali, duelli e partite di tennis . . . . . . . . . . . . . . . . 248 6.4 Distribuzioni di probabilit` a invarianti . . . . . . . . . . . . . . . . . . . . . . 255 6.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
7
Matrici positive e grafi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 7.1 Matrici irriducibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 7.2 Grafi e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 7.3 Ancora sulle Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 7.4 Algoritmo PageRank: perch´e un buon motore di ricerca sembra leggere nel pensiero di chi lo interroga . . . . . . . . . . . . . . . 282 7.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Indice
8
XIII
Soluzioni degli esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 8.1 Soluzioni degli esercizi del Capitolo 1 . . . . . . . . . . . . . . . . . . . . . . 289 8.2 Soluzioni degli esercizi del Capitolo 2 . . . . . . . . . . . . . . . . . . . . . . 296 8.3 Soluzioni degli esercizi del Capitolo 3 . . . . . . . . . . . . . . . . . . . . . . 310 8.4 Soluzioni degli esercizi del Capitolo 4 . . . . . . . . . . . . . . . . . . . . . . 323 8.5 Soluzioni degli esercizi del Capitolo 5 . . . . . . . . . . . . . . . . . . . . . . 333 8.6 Soluzioni degli esercizi del Capitolo 6 . . . . . . . . . . . . . . . . . . . . . . 336 8.7 Soluzioni degli esercizi del Capitolo 7 . . . . . . . . . . . . . . . . . . . . . . 339
Appendice A – Somme e serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 Appendice B – Numeri Complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 Appendice C – Aritmetica della probabilit` a . . . . . . . . . . . . . . . . . . . . 349 Appendice D – Algebra lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Appendice E – Topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 Appendice F – Dimensione frattale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 Appendice G – Tabelle di Z-trasformate . . . . . . . . . . . . . . . . . . . . . . . 367 Appendice H – Alcuni algoritmi e suggerimenti per simulazioni al computer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
1 Fenomeni ricorsivi ed equazioni alle differenze
In questo primo capitolo vengono definite le notazioni ricorrenti nel testo e si illustrano alcune motivazioni dello studio dei modelli matematici discreti attraverso la presentazione di esempi la cui analisi sistematica `e rinviata ai capitoli successivi. Le definizioni astratte del primo paragrafo formano un quadro unitario per lo studio di un’ampia classe di problemi di cui nel secondo paragrafo sono descritti alcuni esempi significativi.
1.1 Definizioni e notazione Nel seguito tratteremo successioni di numeri complessi. Con il termine successione indichiamo una funzione F : N → C, dove 1 N = {0, 1, 2, 3, . . . }. Il lettore senza familiarit` a con i numeri complessi potr`a pensare, in prima lettura, che quanto di seguito esposto sia riferito solo a successioni di numeri reali. Per comodit` a, le propriet` a elementari dei numeri complessi sono richiamate in Appendice B. Una generica successione verr`a indicata con una lettera maiuscola, ad esempio F , mentre con una lettera maiuscola dotata di pedice indicheremo il suo k-esimo termine, nell’esempio Fk , ossia il valore che F assume in k. In altre parole, porremo Fk = F (k). Seguendo una prassi comune, identificheremo una successione F con l’insieme ordinato dei valori assunti: F = {Fk }k∈N o, brevemente, F = {Fk }. Allo studioso interessato alla descrizione di grandezze in una successione di passi o di istanti temporali, potrebbe sembrare restrittivo occuparsi solo di Osserviamo che in altri contesti si pone N = {1, 2, 3, . . . }. La scelta, puramente convenzionale, `e motivata dai problemi in esame. Nei casi che studieremo `e utile avere come riferimento un dato iniziale corrispondente all’indice 0. Tuttavia ogni risultato pu` o essere riportato al caso di successioni definite per tutti gli indici naturali k maggiori o uguali ad un indice k0 .
1
Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
2
1 Fenomeni ricorsivi ed equazioni alle differenze
funzioni definite sull’insieme dei numeri naturali, ma non `e cos`ı. Infatti, se t0 ∈ R `e un qualsiasi istante iniziale ed h > 0 `e un incremento, allora la successione di valori {t0 , t0 + h, t0 + 2h, t0 + 3h, . . . } viene biunivocamente trasformata nella successione {0, 1, 2, 3, . . .} dalla trasformazione k=
t − t0 . h
Dato che oggetto del nostro studio sono quantit` a che dipendono da numeri naturali, non `e sorprendente che il principio di induzione, che qui ricordiamo, si riveli assai utile nell’analisi: Sia P (k) una proposizione relativa al numero naturale k. Se: i) esiste un k ∈ N tale che P k `e vera , se P (k) `e vera, allora P (k + 1) `e vera , ii) per ogni k ≥ k, allora la proposizione P (k) `e vera per ogni k ≥ k. Se I `e un qualsiasi sottoinsieme di C (nella maggior parte dei casi, I sar`a un intervallo in R), poniamo: In = I × I × · · · × I n volte
cio`e I denoter` a l’insieme delle n-uple (x1 , x2 , . . . , xn ) tali che xj ∈ I per ogni j = 1, 2, . . . , n. n
Definizione 1.1. Si dice equazione alle differenze (finite)2 di ordine n, l’insieme di equazioni g (k, Yk , Yk+1 , . . . , Yk+n ) = 0
∀k ∈ N
(1.1)
dove n `e un intero positivo e g `e una funzione scalare assegnata di n + 2 variabili, il cui dominio `e N × I n+1 g : N × I n+1 → R . Un’equazione alle differenze di ordine n si dice in forma normale se `e scritta nella forma 2
L’origine del nome si chiarisce nel caso particolare in cui g (k, Yk , Yk+1 , . . . , Yk+n ) = ψ (k, Yk+1 − Yk , Yk+2 − Yk+1 , . . . , Yk+n − Yk+n−1 )
per una opportuna funzione ψ.
1.1 Definizioni e notazione
Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1)
∀k ∈ N
3
(1.2)
con φ funzione nota φ : N×I n → I.
(1.3)
La (1.2) `e una relazione ricorsiva che, a partire dalla conoscenza dei primi k valori consecutivi della successione Y consente, “con molta pazienza”, di calcolare, un passo alla volta, tutti i valori di tale successione. In molti casi questo calcolo pu`o risultare proibitivo anche con procedure di calcolo automatico. Risulta cos`ı utile conoscere una espressione esplicita, cio`e non ricorsiva, di Y . Definizione 1.2. Si dice soluzione della (1.1) una qualsiasi successione X definita in modo esplicito (non ricorsivo) da Xk = f (k)
∀k ∈ N
(1.4)
ove f : N → I, `e una funzione tale che, sostituendo Yk con f (k) nella (1.1), si ottiene una identit` a. L’insieme di tutte le soluzioni della (1.1) si dice soluzione generale dell’equazione. Teorema 1.3. (di esistenza ed unicit` a) Se φ `e una funzione che verifica (1.3), allora l’equazione alle differenze in forma normale (1.2) ha sempre soluzioni. Per ogni scelta dell’n-upla (α0 , α1 , . . . , αn−1) ∈ I n , il problema con dati iniziali associato all’equazione alle differenze in forma normale (1.2): Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1) Y0 = α0 , Y1 = α1 , . . . , Yn−1 = αn−1 ammette una ed una sola soluzione. Prova. Sostituendo le condizioni iniziali α0 , α1 , . . . , αn−1 nella (1.2) con k = 0 otteniamo un unico valore per Yn , diciamo αn ; inoltre, per la (1.3), (α1 , α2 , . . . , αn−1 , αn) appartiene I n : sostituendo le condizioni Y1 = α1 , Y2 = α2 ,
...,
Yn = αn
nell’equazione (1.2) si ottiene Yn+1 . Ripetendo il procedimento, si costruisce, un passo alla volta, una unica successione Y che `e una soluzione di (1.1) nel senso di (1.4).
Qualora non sia possibile determinare una espressione esplicita della soluzione X, `e comunque assai utile poter stabilire se i valori Xk hanno o meno certi comportamenti al variare di k: periodicit` a, avvicinamento a particolari valori, o un andamento pi` u complicato da descrivere.
4
1 Fenomeni ricorsivi ed equazioni alle differenze
1.2 Esempi In questo paragrafo illustriamo alcune situazioni che motivano lo studio di modelli matematici discreti. Per ciascuna l’analisi sistematica `e rinviata ai capitoli successivi. I primi esempi sono del tutto elementari. L’ordinamento degli esempi oltrech´e alla disciplina in cui sorgono, corrisponde ad una crescente difficolt` a di trattazione. Gli ultimi esempi non sono elementari e potrebbero risultare molto tecnici ad una prima lettura, ma vogliono illustrare almeno in parte le variet` a di situazioni in cui le equazioni alle differenze svolgono un ruolo importante nella matematica applicata. Esempio 1.4. Una telefonata da un telefono mobile costa α quale diritto di chiamata e β per ogni minuto di conversazione. Il costo totale della telefonata Ck+1 dopo k + 1 minuti di conversazione `e la soluzione di
Ck+1 = Ck + β C0 = α che `e un esempio di problema con dato iniziale per una equazione alle differenze del primo ordine. Esempio 1.5. (Interesse semplice) Supponiamo che l’ammontare Yk+1 di un deposito di danaro calcolato al tempo k + 1 (scadenza per il calcolo degli interessi) sia dato dall’ammontare Yk al tempo precedente pi` u l’interesse calcolato, in base ad un tasso costante r sulla somma D0 depositata inizialmente. Il modello alle differenze che descrive l’andamento del deposito corrisponde al problema:
Yk+1 = Yk + rY0 Y0 = D0 la cui soluzione `e (il lettore lo dimostri utilizzando il principio di induzione): Yk = (1 + rk) D0 .
(1.5)
Questo modello descrive l’andamento di un capitale investito in una obbligazione o titolo di stato a rendimento fissato per un numero di anni corrispondente alla durata dell’obbligazione. Esempio 1.6. (Interesse composto) Se nell’esempio precedente supponiamo che l’interesse sia calcolato sempre ad un tasso costante r sulla somma depositata al periodo precedente, ma venga capitalizzato ad ogni scadenza, allora il modello ricorsivo che fornisce l’importo Xk+1 del deposito al tempo k + 1 diventa:
Xk+1 = Xk + rXk = (1 + r) Xk X0 = D0
1.2 Esempi
5
la cui soluzione `e la seguente (anche questa formula si pu` o provare per induzione): k (1.6) Xk = (1 + r) D0 . Questo modello descrive l’andamento di un conto corrente bancario il cui tasso di interesse non subisce variazioni. Si noti che, se r > 0 , la crescita del capitale nel caso dell’interesse composto risulta molto pi` u rapida rispetto al caso dell’interesse semplice; infatti, trascurando alcuni termini positivi nello sviluppo del binomio di Newton, si ricava k (k − 1) 2 k (1 + r) > 1 + kr + k>2 r 2 che sostituita nelle (1.5) e (1.6) fornisce un confronto quantitativo tra i due tipi di regimi finanziari : Xk − Yk >
k (k − 1) 2 r D0 . 2
Esempio 1.7. Una obbligazione di tipo fixed-reverse fornisce cedole che variano nel tempo ma in modo prefissato all’atto dell’emissione. Un esempio tipo `e dato da un titolo della durata di 15 anni che fornisce una cedola del 7% per i primi 5 anni ed in seguito una cedola annua del 2, 50% fino a scadenza. Indicato con Zk la somma fra il capitale investito e le cedole riscosse fino al tempo k, supponendo di non reinvestire le cedole, il modello corrispondente `e Zk+1 = Zk + r(k) Z0 ⎧ ⎨ 0, 07 se k = 0, 1, . . ., 5 con r(k) = 0, 025 se k = 5, 6, . . ., 14 . ⎩ 0 se k ≥ 15 Osserviamo che tale modello non tiene affatto conto delle variazioni di prezzo dell’obbligazione sul mercato secondario. Esempio 1.8. Al tempo k = 0 viene erogato un mutuo d’importo S0 . Tale somma `e restituita in rate costanti di importo R, pagate a partire dal tempo k = 1. Indicando con r il tasso d’interesse costante con il quale viene calcolato l’interesse sul debito residuo Sk , quest’ultimo al tempo k + 1, k ≥ 1, `e dato da Sk+1 = Sk + rSk − R = (1 + r) Sk − R . Esempio 1.9. Al tempo k = 0, si investe una somma M0 in un titolo che frutta cedole di importo costante C ai tempi interi. Se r indica il tasso di interesse composto al quale si reinvestono le somme percepite, l’ammontare Mk+1 del capitale al tempo k + 1 `e dato dalla somma dell’ammontare Mk del capitale al tempo k, degli interessi rMk maturati su tale capitale e della cedola C “staccata” al tempo k + 1: Mk+1 = Mk + rMk + C = (1 + r) Mk + C.
6
1 Fenomeni ricorsivi ed equazioni alle differenze
Esempio 1.10. (Modello della Ragnatela) Supponiamo che le quantit` a Qdk+1 e Qok+1 di un bene, rispettivamente domandate e offerte su un mercato al tempo k + 1 in funzione del prezzo Pk del bene, siano date da Qdk+1 = a − bPk+1
Qok+1 = −c + dPk
dove le costanti a, b, c, d > 0 sono note e tutte positive. Ci` o significa che al crescere del prezzo del bene diminuisce la quantit`a domandata del bene, mentre aumenta la quantit` a offerta. La condizione di equilibrio del mercato Qdk+1 = Qok+1 conduce ad un problema nell’incognita prezzo espresso da una equazione alle differenze con una condizione iniziale p :
d a+c Pk+1 = − Pk + b b P 0 = p
Il nome di ragnatela sar` a chiarito nel seguito. Il lettore pu` o provare a farsene una ragione tentando di “risolvere graficamente” il problema. Esempio 1.11. (Modello di decadimento radioattivo) Consideriamo una popolazione di n particelle che decadono secondo la legge seguente: in ogni intervallo di tempo unitario3 si riducono del 20%. Se Pk indica il numero delle particelle dopo k intervalli di tempo, risulta
Pk+1 = 0, 8Pk P0 = n Analogamente all’Esempio 1.6, si ricava Pk = (0, 8) P0 = e−k ln(5/4)n. k
Per tale motivo si parla di decadimento esponenziale. Osserviamo che la comparsa di valori di Pk non interi conduce a considerare valori reali (descrizione corretta in opportune unit` a di misura macroscopiche se n `e molto grande). Il modello rimane comunque discreto nel tempo nonostante la modellizzazione continua delle grandezze che descrivono la popolazione. Poniamoci le domande seguenti: (1) qual `e la vita media m di tali particelle? (2) qual `e il tempo di dimezzamento d della popolazione? (3) qual `e la pi` u grande delle due quantit` a trovate? 3
L’intervallo di tempo pu` o essere molto lungo: esso `e determinato dalla natura delle particelle.
1.2 Esempi
7
Sottolineiamo il fatto che le prime due domande sono differenti. Nel primo caso si chiede di determinare la vita media, cio`e il numero m verificante +∞ 1 m= k (Pk − Pk+1 ) . (1.7) n k=1
Sostituendo l’espressione trovata per Pk in (1.7), si ottiene: m=
1 k k k−1 nk (0, 8) (1 − 0, 8) = 0, 2 k (0, 8) = 0, 16 k (0, 8) =4 n +∞
+∞
+∞
k=1
k=1
k=1
La seconda domanda chiede di determinare il pi` u grande intero k tale che Pk ≥
1 P0 2
problema equivalente a
1 k max k ∈ N : (0, 8) ≥ 2 k ln 2 · (0, 8) = ln 2 + k (ln 4 − ln 5);
e dalle identit` a deduce
d = max k ∈ N : k ≤
ln 1 = 0
si
ln 2 ln 2 = parte intera di = ln 5 − ln 4 ln 5 − ln 4 = parte intera di 3, 1063 = 3 .
Osserviamo che nessuna delle due quantit`a (vita media e tempo di dimezzamento) dipende dalla popolazione iniziale: esse dipendono solo dalla frazione (20%) di particelle che decadono nell’unit` a di tempo; inoltre vale m > d. Questa tuttavia non `e una disuguaglianza valida in generale: a seconda del tipo di popolazione e delle corrispondenti leggi di decadimento si possono avere tutte le diverse possibilit` a: m > d, m = d, m < d. Consideriamo, ad esempio, una popolazione di 3 particelle (o individui) A, B e C: A vive 10 anni, C vive 20 anni. Allora: • se B vive 15 anni, allora d = m = 15 anni; • se B vive b anni, con 10 ≤ b < 15, allora d = b < m; • se B vive b anni, con 15 < b < 20, allora m < b = d. Osserviamo infine che la vita media potrebbe non essere neppure definita se il calo della popolazione avviene in modo pi` u lento del decadimento esponenziale.
8
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.1 Vita media e tempo di dimezzamento nei tre esempi discussi
1 P0 , allora la vita media `e infinita: k +∞ +∞ +∞ 1 1 1 1 k (Pk − Pk+1 ) = k − = = +∞. P0 k k +1 k+1
Ad esempio, se Pk =
k=1
k=1
k=1
Invece, per una popolazione che decresce nel tempo `e sufficiente la condizione limk Pk = 0 (cio`e che la popolazione tenda ad estinguersi) affinch´e il tempo di dimezzamento sia ben definito. 1 Ad esempio, se, come prima, Pk = P0 , allora d = 2. k Esempio 1.12. (Modello di Malthus4 ) Questo semplice ed ormai classico modello descrive una popolazione (biologica o di altro genere), nella quale il numero Yk di individui presenti al tempo k `e una proporzione costante τ del numero di individui Yk−1 al tempo precedente (la quantit`a τ −1 `e detta tasso intrinseco di crescita):
Yk+1 = τ Yk
τ >0
Il tasso intrinseco di crescita τ − 1 rappresenta la differenza fra i tassi di natalit` a e mortalit` a degli individui. Ovviamente, la popolazione cresce se τ > 1, decresce se 0 < τ < 1. Osserviamo che, al variare di τ , il modello descrive un comportamento quantitativamente identico al caso dell’interesse composto (basta porre τ = 1 + r) o al caso del decadimento radioattivo se 0 < τ < 1. Tali modelli sono detti di crescita esponenziale per l’andamento delle loro soluzioni. Esempio 1.13. (Crescita logistica) Vedremo in dettaglio nel Capitolo 2 che, se τ > 1, allora il modello di Malthus presenta delle soluzioni a crescita esponenziale. Molti autori hanno criticato tale modello proprio perch´e implica una crescita illimitata e troppo rapida. Pi` u realisticamente (anche se si 4
Thomas Robert Malthus, 1766-1834.
1.2 Esempi
9
trascura la competizione con altre specie e si suppongono illimitate le risorse dell’habitat) in caso di grande affollamento si deve tenere conto almeno di fattori di competizione intraspecifica. Il modo pi` u semplice di tenere conto di tali fenomeni sociali consiste nella correzione del modello di Malthus, dovuta a Verhulst, che descrive una maggiore aggressivit`a ed una diminuita attitudine alla riproduzione nei casi di “sovraffollamento”. L’equazione del modello di Malthus viene “corretta” introducendo un termine non lineare di secondo grado, in quanto `e ragionevole pensare che la competizione fra individui sia proporzionale al numero di incontri, e che quest’ultimo sia proporzionale a Yk 2 : Yk+1 = τ Yk − ωYk 2 τ, ω > 0 . Posto H = τ /ω possiamo scrivere
Yk+1
Yk = τ Yk 1 − H
τ, H > 0
(1.8)
Tale modello `e detto di crescita logistica. La quantit` a H `e detta totale sostenibile: infatti, H ha tale interpretazione perch´e se si parte da una popolazione Y0 tale che 0 < Y0 < H, con parametro τ verificante 0 < τ < 4, allora tutti i successivi valori di Yk si mantengono compresi tra 0 e H; non `e possibile invece partire da valori Y0 > H in quanto si avrebbe Yk < 0 per ogni k e il modello sarebbe privo di una significativa interpretazione biologica. Mediante il cambio di scala Xk = Yk /H, possiamo riscrivere il modello come Xk+1 = τ Xk (1 − Xk )
τ >0
ove la popolazione `e espressa come frazione del totale sostenibile. Corrispondentemente, valori iniziali sensati X0 devono soddisfare le disuguaglianze 0 < X0 < 1. Agli effetti della variazione Xk+1 − Xk in un singolo passo temporale, per piccole popolazioni “prevale” il termine lineare (τ − 1) Xk , mentre per popolazioni di grandi dimensioni “prevale” il termine quadratico di coefficiente negativo −τ Xk2 . In questo contesto “piccolo” significa prossimo a zero, “grande” significa grande rispetto a zero ed ha senso anche per valori minori di 1. Esempio 1.14. (Modello di Lotka-Volterra) Una regione `e popolata da due specie: una, la preda, indicata con P , si ciba delle risorse vegetali presenti sul territorio, l’altra, detta predatore ed indicata con C, carnivora, si ciba delle prede. Le prede, in assenza di predatori, crescono in “modo Maltusiano” ad un tasso costante τ ; la presenza di predazione riduce il tasso di crescita delle prede di un termine proporzionale alla consistenza delle popolazioni di prede
10
1 Fenomeni ricorsivi ed equazioni alle differenze
e predatori; in assenza di prede, i predatori si estinguono. Analiticamente il modello `e espresso da un sistema di due equazioni che descrivono in modo accoppiato l’andamento delle due popolazioni:
Pk+1 = (1 + a) Pk − b Ck Pk a, b, c, d > 0, ∀k ∈ N. Ck+1 = (1 − c) Ck + d Ck Pk Si noti che, l’effetto della predazione `e proporzionale agli incontri tra prede e predatori; questo modello suppone che il numero di incontri sia proporzionale alla consistenza delle due popolazioni, cio`e al prodotto Ck Pk . Tale prodotto prende il nome di impact factor. Esempio 1.15. (I numeri di Fibonacci5 ) Un allevatore di conigli si chiede quante coppie di conigli si possono ottenere in un anno, a partire da una unica coppia, nell’ipotesi che ogni mese ciascuna coppia con due o pi` u mesi di vita, dia alla luce una nuova coppia. Per semplicit`a, si pu` o supporre che: • • • •
nessuna coppia muoia; la prima coppia sia costituita da conigli appena nati; il tempo di gestazione sia di un mese; la maturit` a sessuale sia raggiunta dopo il primo mese di vita.
Se Ck `e il numero di coppie al tempo k (espresso in mesi), allora dalle ipotesi fatte deduciamo il modello ricorsivo:
Ck+1 = Ck + Ck−1 , k ∈ N\ {0} C0 = 0, C1 = 1 A differenza degli esempi precedenti, si tratta di un modello a due passi: per ottenere il valore Ck+1 `e necessario conoscere i valori Ck e Ck−1 corrispondenti ai due mesi precedenti. Per sostituzione diretta si ottiene una successione di numeri, detti numeri di Fibonacci, di cui elenchiamo i primi 13: C = {0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, . . . } . Tornando al quesito dell’allevatore, riportiamo in una tabella il numero di mesi trascorsi ed il corrispondente numero di coppie di conigli: mesi
k
coppie Ck
0 1 2 3 4 5 6 7 8 9 10 11 12 13 0 1 1 2 3 5 8 13 21 34 55 89 144 233
Come si pu`o notare, il valore Ck cresce molto rapidamente con k, ad esempio C25 = 75025. Osserviamo che per calcolare valori di Ck con k > 30 anche se si utilizza 5
Col soprannome di Fibonacci `e noto Leonardo Pisano (1175-1240).
1.2 Esempi
11
un personal computer `e bene usare qualche accorgimento per evitare tempi di calcolo molto lunghi o problemi di memoria. Queste difficolt` a sono tipiche delle operazioni ricorsive, anche quando sono ottenute a partire da operazioni molto semplici. Il problema `e dovuto al fatto che se non si conservano i valori calcolati, l’elaboratore ripete un gran numero di volte (inutilmente) le stesse operazioni. Questo `e il vero motivo per cui si ricercano formule esplicite per il calcolo che non richiedano la conoscenza di tutti i valori precedenti (si veda al riguardo l’Appendice H). Si noti che non solo Ck ma anche il numero Nk di operazioni necessarie al calcolo di Ck cresce molto rapidamente (come funzione di k), se non vengono tabulati i valori di Ck , mano a mano che vengono calcolati. Nel modello di Fibonacci non solo i passi temporali sono discreti ma anche la grandezza misurata (numero di conigli) `e discreta (sono numeri interi); tuttavia una descrizione completa delle soluzioni richiede (come vedremo nel Capitolo 2) l’utilizzo dei numeri reali, ossia l’ampliamento dell’insieme numerico in cui `e stato definito il modello. Esempio 1.16. (Modello di Leslie [12]) I modelli di popolazione presentati in precedenza non tengono conto di alcuna eventuale struttura della popolazione: per et` a, sesso o altro. Al solo scopo di tenere conto delle varie et`a degli individui appartenenti ad una popolazione biologica, si pu` o suddividere tale popolazione in n classi disgiunte di et` a , ciascuna di uguale ampiezza. Ad esempio, la prima classe potrebbe essere costituita dagli individui di et` a minore o uguale a 20 anni, la seconda dagli individui di et` a compresa tra 20 e 40 anni, e cos`ı via. In tal modo 5 classi di et`a sarebbero sufficienti a descrivere in modo soddisfacente una popolazione umana di una certa regione. In generale, assegnata una popolazione, fissato n il numero di classi di et` a, si deduce l’unit` a temporale come rapporto tra una et` a massima convenzionale ed n, quindi si denota con Yk il numero di individui che costituisce la popolazione complessiva al tempo k. Per ogni k, Yk `e un vettore ad n componenti Ykj , j = 1, . . . , n, ciascuna delle quali indica il numero di individui nella jesima classe, cio`e di et`a compresa tra j − 1 e j, nella fissata unit` a di misura temporale. La presenza di due indici non deve spaventare: il primo denota il tempo al quale ci si riferisce, il secondo la classe di et`a. Ad esempio, se consideriamo classi di et`a dell’ampiezza di 5 anni per la popolazione umana di una fissata regione, allora Y51 `e il numero di appartenenti alla classe dei pi` u giovani (et` a minore di 5 anni) valutata al momento del quinto censimento (i censimenti hanno, in genere, cadenza quinquennale). 1 Il numero Yk+1 dei nuovi nati al tempo k + 1 `e la somma dei nati da individui appartenenti a ciascuna classe di et` a che `e in proporzione secondo un tasso di natalit` a ϕj al numero di individui nella stessa classe Ykj : 1 Yk+1 =
n j=1
ϕj Ykj .
12
1 Fenomeni ricorsivi ed equazioni alle differenze
j Il numero di individui Yk+1 nelle classi di et`a pi` u mature (j = 2, 3, . . . , n) al tempo k + 1 `e dato dai “sopravvissuti” fra i componenti la Ykj−1 della (j − 1)-esima classe al tempo k: j Yk+1 = σj−1Ykj−1
j = 2, . . . , n,
0 ≤ σj−1 ≤ 1.
I valori ϕj e σj sono tipici delle varie popolazioni, sono indicatori statistici delle attese di natalit` a e sopravvivenza, sono tutti non negativi e verosimilmente ϕj `e piccolo per valori estremi di j (j = 0 e j = n). T Posto Yk = Yk1 Yk2 . . . Ykn , il modello `e descritto in modo sintetico dall’equazione vettoriale Yk+1 = LYk cio`e, per ciascuna componente j, j = Yk+1
n
Lj,h Ykh
h=1
dove
⎡
. . . ϕn−1 ... 0 ... 0 . .. . .. 0 0 0 . . . σn−1
ϕ1 ⎢ σ1 ⎢ ⎢ L=⎢ 0 ⎢ .. ⎣ .
ϕ2 0 σ2 .. .
ϕ3 0 0 .. .
⎤ ϕn 0 ⎥ ⎥ 0 ⎥ ⎥. .. ⎥ . ⎦ 0
Si noti che ad ogni passo temporale la popolazione complessiva si ottiene n sommando il numero degli individui componenti le varie classi di et` a: Ykj . j=1
Esempio 1.17. (Rovina del giocatore) Due giocatori A e B giocano a testa o croce con una moneta truccata (esce testa nel 40% dei casi). Su ogni lancio scommettono un Euro. A punta sempre su testa, B sempre su croce. A possiede all’inizio a monete, B ne possiede b, e vale a > b > 0. Il gioco prosegue fino a che uno dei giocatori sbanca l’altro. Ci si chiede quale sia la probabilit` a che A riesca a vincere tutte le monete di B e la probabilit` a dell’esito opposto. Per vedere due modi diversi di modellare e risolvere il problema si rimanda al Capitolo 2 (Esercizio 2.35) e al Capitolo 6 (Esercizio 6.3). Esempio 1.18. In un game di una partita di tennis tra due giocatori il punteggio `e 40 a 15. Supponendo di sapere che il giocatore in vantaggio ha una probabilit` a nota p ∈ (0, 1) di vincere ciascuna palla, si chiede con quale probabilit` a si aggiudicher` a il gioco. Per un’analisi di questa situazione si rinvia all’Esempio 6.25.
1.2 Esempi
13
Esempio 1.19. (Ricerca delle soluzioni di una equazione differenziale ordinaria, lineare con coefficienti variabili espressi da funzioni elementari) Consideriamo, ad esempio, l’equazione differenziale, nota come equazione di Airy, y = xy x∈R. (1.9) Si noti che l’equazione, bench´e lineare, non `e a coefficienti costanti. Cerchiamo di determinare soluzioni di (1.9) nella forma6 y (x) =
+∞
An xn .
n=0
Derivando formalmente, si ottiene y (x) =
+∞
y (x) =
n An xn−1
n=1
+∞
n (n − 1) An xn−2
n=2
e sostituendo nell’equazione (1.9), si ricava l’identit` a +∞
n (n − 1) An xn−2 =
n=2
+∞
An xn+1 .
(1.10)
n=0
Inoltre +∞
n (n − 1) An xn−2 = 2A2 +
n=2
+∞
n (n − 1) An xn−2 =
ponendo m=n−3
n=3
= 2A2 +
+∞
(m + 2) (m + 3) Am+3 xm+1
m=0
e, tenendo conto che l’indice di una sommatoria `e muto, si pu` o porre m = n nella serie a destra dell’uguale in (1.10), ottenendo l’identit` a equivalente: 2A2 +
+∞
(m + 2) (m + 3) Am+3 xm+1 =
m=0
+∞
Am xm+1 .
m=0
Affinch´e l’uguaglianza sia verificata per ogni x ∈ R devono risultare uguali i coefficienti dei termini di ugual grado: A2 = 0 6
(m + 2) (m + 3) Am+3 = Am .
Per applicare con successo il metodo, non `e necessario che i coefficienti siano funzioni elementari: `e in generale sufficiente che i coefficienti siano analitici, cio` e funzioni esprimibili localmente come somma di una serie di potenze della variabile indipendente x.
14
1 Fenomeni ricorsivi ed equazioni alle differenze
Otteniamo cos`ı la relazione ricorsiva Am+3 =
Am (m + 2) (m + 3)
m ∈ N.
(1.11)
Assegnati i valori A0 = y (0) ed A1 = y (0), ricordando che A2 = 0, l’espressione ricorsiva (1.11) consente di calcolare tutti i coefficienti. Osservato che A3k+2 = 0 per ogni k, i primi termini dello sviluppo della soluzione sono: x3 x4 x6 x7 + + · · · + A1 x + + +··· . y (x) = A0 1 + 2·3 2·3·5·6 3·4 3·4·6·7 Esempio 1.20. Discretizzazione di una equazione differenziale ordinaria con il metodo delle differenze finite. Si possono ottenere soluzioni approssimate di un problema di Cauchy7
u (x) = f (x, u (x)) (1.12) u (x0 ) = u0 dove f `e una funzione nota, x varia in un opportuno intervallo centrato in x0 ed u `e una funzione incognita, sostituendo la derivata della funzione incognita con opportuni rapporti incrementali. Ad esempio, il metodo di Eulero implicito consiste nel fissare un passo h > 0 di incremento della variabile x che individua i punti xk = x0 + hk, al variare di k ∈ {0, 1, . . ., n − 1}; in corrispondenza ai punti xk si sostituisce nella (1.12) al posto di u (x) il rapporto incrementale in avanti: u (xk + h) − u (xk ) u (x0 + h (k + 1)) − u (x0 + hk) = h h e per valutare la funzione f (x, u (x)) si effettuano i calcoli in xk+1 . Consideriamo una funzione uh che approssima u. Posto Uk = uh (x0 + hk) otteniamo Uk+1 − Uk = f (xk+1 , Uk+1 ) h ossia Uk+1 = Uk + hf (x0 + (k + 1) h, Uk+1 )
k = 0, 1, . . . , n − 1 ;
che, per ogni k fissato, `e effettivamente una equazione implicita in Uk+1 qualora sia noto Uk : risolvendola iterativamente, a partire da U0 = u (x0 ) = u0 , si ottengono i valori Uk+1 . 7
Cio`e un problema che consiste nella determinazione di una soluzione di un’equazione differenziale verificante condizioni iniziali assegnate in modo opportuno.
1.2 Esempi
15
Ci si attende che l’approssimazione Uk di u (xk ) migliori quando h si avvicina a zero. Alternativamente, il metodo di Eulero esplicito consiste nel calcolare l’approssimazione di f in xk e conduce alla formulazione Uk+1 − Uk = f (xk , Uk ) h
che, nota Uk , `e un’equazione esplicita nell’incognita Uk+1 . Questo vantaggio computazionale comporta per`o inconvenienti sulla stabilit` a numerica per cui il metodo implicito risulta preferibile qualora non risulti proibitiva la soluzione dell’equazione in Uk+1 . Esempio 1.21. (Discretizzazione dell’equazione del calore) Consideriamo il problema con condizioni iniziali ed al bordo per l’equazione del calore in un sbarra ⎧ 2 ⎪ ∂v = ∂ v ⎪ x ∈ (0, a) , t > 0 ⎪ ⎪ ∂x2 ⎪ ⎨ ∂t (1.13) v (x, 0) = f (x) x ∈ [0, a] ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ v (0, t) = v (a, t) = 0 t > 0 che descrive l’evoluzione della temperatura v = v (t, x) al tempo t nella posizione x di una sbarra, se si suppone che la temperatura segua la legge di Fourier, abbia il valore f al tempo 0 e sia controllata da termostati al bordo. Supponiamo f (0) = f (a) = 0. Fissiamo un passo s = a/ (N + 1) , N ∈ N\ {0}, per la variabile spaziale e poniamo tk = hk con k ∈ N e h reale strettamente positivo. In tal modo otteniamo una griglia di punti (vedi Figura 1.2) (xj , tk ) = (js, hk)
j = 0, 1, . . ., N + 1,
k ∈ N.
Se la soluzione v di (1.13) ha derivate continue fino al secondo ordine, in ogni punto (xj , tk ) della griglia otteniamo dalla formula di Taylor: ∂v v (xj , tk+1 ) − v (xj , tk ) (xj,tk+1 ) = + O (h) ∂t h ∂2v v (xj+1 , tk+1) − 2v (xj , tk+1 ) + v (xj−1 , tk+1 ) (xj , tk+1 ) = + O (s) . ∂x2 s2 Queste relazioni suggeriscono di approssimare l’equazione del calore con l’equazione alle differenze:
16
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.2 Griglia di discretizzazione per l’equazione del calore in una sbarra
v (js, h (k + 1)) − v (js, hk) = h =
v ((j + 1) s, h (k + 1)) − 2v (js, h (k + 1)) + v ((j − 1) s, h (k + 1)) s2
che `e una discretizzazione di tipo Eulero implicito nel tempo con derivata seconda spaziale approssimata con 3 punti. Denotando con Vj,k un’approssimazione di v (js, hk) e operando un riordino dei termini, si ottiene il sistema: 2h h Vj,k+1 − 2 [Vj−1,k+1 + Vj+1,k+1 ] j = 1, . . . , N, j,k = 1 + 2 s s ⎩ V0,k+1 = VN+1,k+1 = 0 k∈N ⎧ ⎨V
k∈N (1.14)
` ragionevole porre E
Vj,0 = f (js)
j = 0, . . . , N + 1.
Il problema (1.14) si pu` o risolvere ricorsivamente (con l’ausilio del calcolo automatico): i valori Vj,0 sono noti, mentre Vj,1 , j = 1, . . . , N , si deducono dai valori Vj,0 con j = 1, . . . , N . Introducendo poi la matrice N × N
1.2 Esempi
⎡
1+
2h s2
− sh2
0
···
⎢ ⎢ ⎢ − h2 1 + 2h2 − h2 · · · s s s ⎢ ⎢ ⎢ ⎢ − sh2 1 + 2h A =⎢ ⎢ 0 s2 · · · ⎢ ⎢ ⎢ . .. .. .. ⎢ .. . . . ⎢ ⎣ 0
···
0
⎤
0 0 .. . − sh2
− sh2 1 +
⎡
17
⎤
V1,k ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ V2,k ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ Vk = ⎢ ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎢ . ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ VN,k
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
2h s2
possiamo riscrivere il sistema precedente come una equazione alle differenze vettoriale del primo ordine, a coefficienti costanti AVk+1 = Vk
(1.15)
T con la condizione iniziale V0 = f (s) f (2s) · · · f (N s) . La discretizzazione di tipo Eulero esplicito conduce alla seguente equazione alle differenze vettoriale (1.16) Wk+1 = BWk T con la condizione iniziale W0 = f (s) f (2s) · · · f (N s) , dove Wj,k approssima il valore di v (js, hk) e B `e la matrice N × N definita da ⎡ ⎤ h 0 ··· 0 1 − 2h s2 s2 ⎢ h 1 − 2h h ··· 0 ⎥ ⎢ s2 ⎥ s2 s2 ⎢ ⎥ ⎢ .. ⎥ h 2h ⎢ . ⎥ 1 − s2 · · · B=⎢ 0 s2 ⎥ ⎢ . ⎥ .. .. .. ⎢ . ⎥ . sh2 ⎦ . . ⎣ . 0
···
0
h s2
1−
2h s2
In entrambi gli schemi si noti la struttura a banda delle matrici A e B che risultano matrici definite positive (la seconda se 4h < s2 ). Osserviamo che la soluzione dello schema di Eulero esplicito consiste nel determinare iterativamente Wk+1 a partire da Wk : la soluzione numerica di tale problema consiste ad ogni passo in una moltiplicazione di una matrice di ordine N per un vettore N -dimensionale. La soluzione dello schema di Eulero implicito consiste nella determinazione di Vk+1 a partire da Vk : in questo caso la soluzione numerica consiste ad ogni passo nella soluzione di un sistema di N equazioni algebriche (anzich´e invertire A che nella pratica pu` o avere dimensione molto elevata, si sfruttano le sue particolari propriet` a di struttura: si vedano l’Appendice D e il paragrafo 5.8). Esempio 1.22. (Equazione dei tre momenti per una sbarra appoggiata) Consideriamo una sbarra elastica pesante ed omogenea (vedi Figura 1.3),
18
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.3 Sbarra appoggiata a supporti equidistanti
uniforme di lunghezza L, appoggiata ad N − 1 punti equidistanti (ad una distanza δ > 0): N δ = L. Supponiamo che non vi siano forze agenti sulla sbarra ad eccezione del suo peso e della reazione vincolare nei supporti d’appoggio. Vogliamo determinare i momenti flettenti Mk , k = 1, , . . . , N − 1, nei punti di appoggio. Sia Mk il momento flettente nel k-esimo supporto. Consideriamo tre supporti consecutivi (di indici rispettivamente k − 1, k, k + 1) e collochiamo l’origine nel supporto centrale. Sia poi x la distanza orientata da tale punto. Allora, il momento flettente nel punto x `e dato da: ⎧ x ⎪ ⎪ ⎨ Mk + (Mk − Mk−1 ) δ −δ ≤ x ≤ 0 M (x) = (1.17) ⎪ x ⎪ ⎩ Mk + (Mk+1 − Mk ) 0≤x≤δ δ Dalla teoria delle sbarre elastiche sappiamo che lo spostamento verticale della sbarra `e descritto dal grafico di y = y (x) verificante Y I y = M (x)
(1.18)
dove Y I indica la rigidit` a a flessione della sbarra che supponiamo indipendente da x (Y `e il modulo di Young, I il momento di inerzia rispetto ad un asse per il baricentro). Integrando la relazione differenziale (1.18) ed usando (1.17) otteniamo ⎧ x2 ⎪ ⎪ + c1 −δ ≤ x ≤ 0 ⎪ Mk x + (Mk − Mk−1 ) ⎨ 2δ Y Iy = (1.19) ⎪ 2 ⎪ x ⎪ ⎩ Mk x + (Mk+1 − Mk ) + c2 0 ≤ x ≤ δ 2δ Poich´e y deve essere continua in x = 0, otteniamo c1 = c2 = c. Integrando (1.19) ⎧ x3 1 ⎪ 2 ⎪ x + (M − M ) M + cx −δ ≤ x ≤ 0 ⎪ k k k−1 ⎨2 6δ Y Iy = ⎪ 3 ⎪ ⎪ ⎩ 1 Mk x2 + (Mk+1 − Mk ) x + cx 0 ≤ x ≤ δ 2 6δ
1.3 Metodo grafico
19
Poich´e lo spostamento verticale y `e nullo nei punti di appoggio (cio`e per x = 0, ±δ) otteniamo due equazioni 1 δ2 Mk δ 2 − (Mk − Mk−1 ) − cδ = 0 2 6 δ2 1 Mk δ 2 + (Mk+1 − Mk ) + cδ = 0 2 6 che sommate danno l’equazione dei tre momenti: Mk−1 + 4Mk + Mk+1 = 0 .
1.3 Metodo grafico Per rendersi conto, almeno in prima approssimazione, del comportamento di una soluzione di una equazione alle differenze del primo ordine Xk+1 = f (Xk )
∀k ∈ N
con f : I → R, I intervallo di R, pu` o risultare conveniente ricorrere ad una rappresentazione grafica che individua l’andamento, sia pur per pochi valori iniziali di k, della successione Xk . Illustriamo tale metodo in un caso particolare (che corrisponde ad una particolare scelta dei parametri negli Esempi 1.5, 1.8, 1.9, 1.11 e 1.12): Xk+1 = 1, 5 Xk − 0, 5.
(1.20)
Nel piano cartesiano, tracciamo i grafici della funzione affine f : R → R, f (x) = 1, 5 x − 0, 5 e della funzione identit` a id (x) = x. Scegliamo ora un valore iniziale X0 sull’asse delle ascisse, ad esempio X0 = 2. Allora il valore X1 = f (X0 ) = 2, 5 pu` o essere ottenuto graficamente tracciando a partire dal punto (X0 , 0) una retta verticale fino ad incontrare la retta di equazione y = 1, 5 x − 0, 5 (Figura 1.4a) e successivamente proseguendo con un segmento orizzontale fino all’asse verticale (Figura 1.4b). Per determinare graficamente X2 occorre riportare il valore di X1 sull’asse delle ascisse. A questo scopo, si traccia un segmento orizzontale (Figura 1.4c) fino alla retta di equazione y = x: chiaramente la sua proiezione verticale riporta X1 sull’asse delle ascisse. Riportiamo (Figura 1.4d) tutti i segmenti tracciati in un unico grafico, cancellando i tratti orizzontali percorsi in andata e ritorno. Si itera la procedura tracciando un segmento verticale a partire dal punto (X1 , X1 ) fino al grafico della funzione f (Figura 1.5a). Il grafico ottenuto “suggerisce” nell’esempio particolare che la successione Xk sia divergente a +∞ quando k → +∞.
20
1 Fenomeni ricorsivi ed equazioni alle differenze
X1 b)
a)
X0
X0
X1 d)
c)
X0 X1
X0 X1
Figura 1.4 Implementazione del metodo grafico
a)
b)
Figura 1.5 Metodo grafico: f (x) = 1, 5x − 0, 5 ; a) X0 = 2, b) X0 = 0, 5
Si noti, sempre nell’esempio sopra considerato, che, se X0 = 2, “non dobbiamo disegnare nulla” dato che ad ogni passo si ha Xk = 2.
1.4 Esercizi di riepilogo
21
Se consideriamo, invece X0 = 0, 5 , procedendo come indicato sopra, otteniamo il grafico della Figura 1.5b. Questa volta ci aspettiamo che Xk → −∞ se k → +∞. I diagrammi ottenuti con tale procedura saranno denominati nel seguito grafici a ragnatela. Invitiamo il lettore a fornire, ove possibile, una rappresentazione grafica dell’andamento delle successioni individuate negli esempi riportati nella precedente sezione.
1.4 Esercizi di riepilogo Il lettore `e invitato ad affrontare gli esercizi prima della lettura dei capitoli successivi, per poi confrontare le soluzioni trovate con quelle fornite nel Capitolo 7. Esercizio 1.1. Una torta viene tagliata con tagli rettilinei in modo tale che due tagli qualsiasi si intersecano in uno ed un solo punto ma tre tagli differenti non si possono intersecare nello stesso punto. Si fornisca il modello alle differenze che descrive ricorsivamente il numero Nk delle porzioni in cui viene suddivisa la torta con k tagli. Utilizzare il risultato ottenuto per rispondere al quesito: qual ` e il numero massimo di fette (eventualmente diverse fra loro) in cui si pu` o dividere una torta circolare mediante k tagli rettilinei? Esercizio 1.2. Il lettore verifichi, a proposito dell’Esempio 1.8, che se R ≤ rS0 non si riuscir` a mai ad estinguere il debito! Esercizio 1.3. Due sostanze radioattive (instabili) presenti inizialmente in quantit` a Y0 e X0 , ogni anno decadono secondo il seguente schema: • •
una frazione pY , 0 < pY < 1, del materiale denotato con Y si trasforma nel secondo materiale X; una frazione pX , 0 < pX < 1, del materiale denotato con X si trasforma in materiale inerte.
Individuare un sistema di due equazioni che descriva in forma ricorsiva le quantit` a Yk+1 e Xk+1 delle due sostanze radioattive dopo k + 1 anni. Esercizio 1.4. (Ammortamento uniforme) Un prestito di importo S viene rimborsato in n rate a quote capitale costanti di importo C, cio`e C = S/n. Si fornisca un’equazione ricorsiva che esprima la k-esima quota interessi Ik calcolata al tasso costante r sul debito residuo Dk , ricordando che Dk+1 = Dk − C. Se ne calcoli poi l’espressione in forma chiusa (Dk come funzione della sola k). Esercizio 1.5. (Ammortamento progressivo) Un prestito di importo S viene restituito in n rate costanti annue di importo R in cui l’interesse `e calcolato al tasso costante r sul debito residuo Dk , la prima delle quali viene versata un anno dopo l’erogazione del prestito. Determinare l’espressione ricorsiva per la quota capitale Ck e la quota interessi Ik .
22
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.6 Torre di Hanoi
Esercizio 1.6. Si deposita oggi (k = 0) una somma S in un conto corrente bancario. Sapendo che gli interessi vengono calcolati ad un tasso annuo r in regime di capitalizzazione composta e che la banca addebita a titolo di rimborso spese un importo annuo pari a C, fornire, nell’ipotesi che non avvengano altre operazioni, l’espressione ricorsiva dell’ammontare presente sul conto dopo k + 1 anni. Esercizio 1.7. Un investimento finanziario di capitale iniziale C0 dopo un numero a un ritorno percentuale pari a 100 (Cgg − C0 ) /C0 . di giorni gg vale Cgg , cio`e d` Si determini il tasso interno di rendimento annuo composto s, cio`e la soluzione dell’equazione (vedi l’Esempio 1.6) Cgg = (1 + s/100)gg/365 C0 . Il calcolo di s consente di confrontare l’investimento in esame con l’acquisto di uno zero coupon bond , cio`e un titolo a tasso fisso e privo di cedole. Esercizio 1.8. Con riferimento al caso del decadimento radioattivo (Esempio 1.11), assegnata una frazione r, 0 < r < 1 , di particelle che decadono nell’unit` a di tempo, confrontare la vita media m (r) ed il tempo di dimezzamento d (r) al variare di r. Esercizio 1.9. Un bambino dopo aver costruito una torre di k cubi li vuole riporre nella cesta dei giochi. A questo scopo, li prende uno o due alla volta. Descrivere con una equazione ricorsiva il numero dei modi differenti coi quali pu` o essere completata l’operazione. Esercizio 1.10. (Problema della torre di Hanoi, Lucas8 , 1883) Tre pioli sono allineati sul terreno. Sul piolo di sinistra sono impilati dischi di raggio differente a partire da quello di raggio maggiore come illustrato dalla Figura 1.6. Si chiede di determinare la relazione che sussiste tra il numero minimo di mosse Yk necessarie a spostare i dischi sul piolo di destra quando i dischi sono k ed Yk+1 numero minimo di mosse per effettuare la medesima operazione nel caso di k + 1 dischi. Una mossa equivale allo spostamento di un disco da un piolo all’altro e non `e possibile impilare alcun disco sopra uno di raggio inferiore. Esercizio 1.11. Nel problema posto dall’esercizio precedente, si aggiunga il divieto di spostare i dischi direttamente dal piolo di sinistra a quello di destra e si calcoli il numero minimo di mosse per spostare tutti i dischi in questa situazione. 8
Fran¸cois Edouard Anatole Lucas, 1842-1891.
1.4 Esercizi di riepilogo
23
Esercizio 1.12. Ciascuno dei tre lati di misura unitaria di un triangolo equilatero viene suddiviso in k parti uguali; se si congiungono i punti cos`ı individuati mediante linee parallele ai lati si individuano Xk triangoli equilateri il cui lato `e pari ad 1/k. Determinare una relazione ricorsiva che lega Xk+1 ad Xk . Esercizio 1.13. Studiare graficamente il modello della ragnatela (Esempio 1.10) nell’ipotesi d a+c = 0, 9 = 2. b b Si osservi che il disegno ottenuto suggerisce una spiegazione del nome di tale modello. Esercizio 1.14. Determinare una formula ricorsiva per i coefficienti An dello svi+∞ An xn di una soluzione delle seguenti equazioni differenziali del luppo in serie n=0
secondo ordine (x ∈ R): equazione di Bessel
x2 y + xy + x2 − k2 y = 0
equazione di Hermite y − 2xy + 2ky = 0 equazione di Laguerre xy + (1 − x) y + ky = 0 equazione di Legendre
1 − x2 y + k (k + 1) y = 0
dove k ∈ N `e assegnato e y , y denotano rispettivamente le derivate prima e seconda di y rispetto ad x. Esercizio 1.15. Discretizzare con il metodo di Eulero implicito le seguenti equazioni differenziali: x0 = 0 (1) y = xy (2) y = ay (1 − y) x0 = 0 Esercizio 1.16. Discretizzare con metodi alle differenze finite le seguenti equazioni differenziali alle derivate parziali: a) equazione di Laplace
∂2u ∂2 u + =0 2 ∂x ∂y2
b) equazione di D’Alembert
∂2 v ∂2 v − =0 2 ∂t ∂x2
Esercizio 1.17. (Equazione di Black & Scholes) L’equazione differenziale 1 vt + σ2 x2 vxx + rxvx − rv = 0 2 nell’incognita v = v (x, t), con σ (volatilit` a) ed r (tasso d’interesse bancario) parametri noti, si dice equazione di Black & Scholes. Risolvere tale equazione differenziale consente di determinare il prezzo v di particolari strumenti finanziari derivati (ad esempio, opzioni, contratti forward, futures) al tempo t e per un certo valore x del prodotto finanziario sottostante (obbligazioni, azioni, materie prime, indici finanziari).
24
1 Fenomeni ricorsivi ed equazioni alle differenze
Ad esempio, `e importante risolvere il seguente problema per una singola opzione d’acquisto (call ): ⎧ 1 ⎪ ⎪ vt + σ2 x2 vxx + rxvx − rv = 0 x > 0, 0 < t < T ⎪ ⎪ 2 ⎨ v (0, t) = 0 0
0, si ∂v (x, 0) (indicata con cercano v (x, 0) prezzo del contratto al tempo 0 e la quantit` a− ∂x Δ) di grande importanza per equilibrare rispetto al rischio il portafoglio dell’istituto finanziario (writer ) che emette il contratto. Provare che con le trasformazioni x = E ey t = T − 2τ /σ2 v (x, t) = E w (y, τ )
(1.21)
w (y, τ ) = eαx+βτ u (y, τ )
(1.22)
con opportune scelte dei parametri α, β, il problema si traduce nell’equazione (vedi Esempio 1.21) del calore in avanti (cio`e con dato iniziale per t = 0) che `e risolvibile mediante le tecniche del paragrafo 5.8.
2 Equazioni alle differenze lineari
In questo capitolo sono esposte alcune tecniche di soluzione per equazioni alle differenze lineari ad uno o pi` u passi che descrivono delle grandezze incognite che sono scalari, cio`e numeri. Il caso non lineare e il caso vettoriale saranno affrontati rispettivamente nei Capitoli 3,4 e 5,6. Nel caso scalare lineare, la particolare struttura dell’insieme delle soluzioni consente di dare una completa caratterizzazione di tali soluzioni. Questo vale, come vedremo nel Capitolo 5, anche nel caso vettoriale, mentre nel caso non lineare questo non `e possibile.
2.1 Equazioni lineari ad un passo a coefficienti costanti Definizione 2.1. Se a `e una fissata costante (reale o complessa), si dice equazione alle differenze (finite) lineare omogenea, del primo ordine, a coefficienti costanti, l’insieme di infinite relazioni Xk+1 = aXk
∀ k ∈ N.
(2.1)
L’equazione precedente si dice lineare omogenea perch´e il secondo membro `e una funzione lineare di Xk , del primo ordine perch´e corrisponde ad una relazione che lega solo due valori consecutivi della successione X, a coefficienti costanti perch´e a non dipende da k. La (2.1) regola fenomeni di “crescita” secondo una progressione geometrica di ragione a: si vedano gli Esempi 1.6, 1.11, 1.12 e l’Esercizio 2.3. Mediante sostituzioni successive, dalla (2.1) otteniamo la lista di relazioni: X1 = aX0 X2 = aX1 = a2 X0 ··· = ... Xk−1 = aXk−2 = ak−1 X0 Xk = aXk−1 = ak X0 che conducono all’enunciato successivo. Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
26
2 Equazioni alle differenze lineari
Teorema 2.2. Per ogni condizione iniziale X0 la (2.1) ammette l’unica soluzione: k ∈ N. (2.2) Xk = ak X0 Prova. Proviamo la correttezza della relazione (2.2) per induzione. Se k = 1, la (2.2) `e banalmente soddisfatta; supponiamo ora che per un indice fissato k ≥ 1, valga Xk = ak X0 . Ne segue: ipotesi di induzione
Xk+1 = aXk = = a ak X0 = = ak+1 X0
propriet` a delle potenze
cio`e la successione (2.2) soddisfa la relazione (2.1) anche per k + 1: dal principio di induzione segue la tesi.
Esempio 2.3. Consideriamo una popolazione la cui evoluzione `e descritta dal modello di Malthus Xk+1 = τ Xk (si veda l’Esempio 1.12). Tale popolazione, partendo da un valore iniziale X0 , al tempo k raggiunge il valore Xk = τ k X0 .
Un “modello di crescita” pi` u lenta (si vedano gli Esempi 1.4, 1.5) `e quello ad incrementi additivi costanti, tipica dell’andamento di una progressione aritmetica: ∀k ∈ N, b ∈ R Xk+1 = Xk + b la cui soluzione `e data da Xk = X0 + kb, come si verifica facilmente. I due tipi di evoluzione appena illustrati sono casi particolari di equazioni lineari affini. Definizione 2.4. Se a e b sono fissate costanti con a = 0, si dice equazione alle differenze lineare affine, del primo ordine, a coefficienti costanti, l’insieme di relazioni nell’incognita X
Xk+1 = aXk + b
∀k ∈ N
(2.3)
` naturale chiamare equilibrio dell’equazione (2.3) ogni eventuale soluzione E dell’equazione algebrica x∈R:
(a − 1) x + b = 0
perch´e una eventuale successione costante che assuma tale valore `e una soluzione di (2.3).
2.1 Equazioni lineari ad un passo a coefficienti costanti
27
Ricordiamo che l’equazione alle differenze (2.3) corrisponde ad infinite equazioni algebriche che debbono essere verificate contemporaneamente. Spesso si usa il termine traiettoria come sinonimo di soluzione di (2.3) perch´e i valori di una successione hanno la naturale interpretazione di posizioni raggiunte dal sistema descritto dall’equazione alle differenze. Teorema 2.5. Per ogni valore iniziale X0 ∈ R , l’equazione alle differenze (2.3) ha un’unica soluzione X = {Xk }. L’espressione esplicita di tali soluzioni o traiettorie differisce a seconda che il coefficiente a sia o non sia l’unit` a: 1) se a = 1
allora
k∈N
Xk = X0 + kb
e in tal caso (i) se b = 0, non esiste alcun equilibrio e tutte le traiettorie sono divergenti; (ii) se b = 0, allora tutti i valori sono di equilibrio e tutte le traiettorie sono costanti. 2)
se a = 1
Xk = (X0 − α) ak + α
allora
k∈N
(2.4)
ove α `e l’unico equilibrio: α = b/ (1 − a); inoltre, in tal caso: (i) se |a| < 1, allora lim Xk = α (infatti lim ak = 0, dunque tutte le k
k
traiettorie convergono ad α); (ii) se |a| > 1, allora lim |Xk | = +∞ (infatti lim ak = +∞, e tutte k
k
le traiettorie corrispondenti sono divergenti, salvo quella (costante) corrispondente a X0 = α); (iii) se a = −1, allora l’equilibrio `e α = b/2, e tutte le soluzioni oscillano attorno a tale equilibrio: X2k = α + (X0 − α) = X0
k∈N
X2k+1 = α − (X0 − α) = b − X0 k ∈ N Dunque, nel caso a = −1, tra le soluzioni vi `e un’unica traiettoria costante (se X0 = α = b/2) ed infinite traiettorie periodiche (se X0 = b/2), i cui primi valori sono {X0 , b − X0 , X0 , b − X0 , . . . },
28
2 Equazioni alle differenze lineari
se a = −1 allora: X2k = X0 2k+1
2k+1
X2k+1 = (−1)
X0 +
1 − (−1) 2
b = 2α − X0 = b − X0
cio`e X `e periodica di periodo 2 ed oscilla attorno il valore α = b/2, e in tal caso le oscillazioni hanno semiampiezza |X0 − α| = |X0 − b/2|. Prova L’unico fatto non banale `e la rappresentazione esplicita (2.4) relativa al caso a = 1: pu` o essere provato per induzione, mostrando che la successione (2.4) descrive a (a dato iniziale fissato) una soluzione di (2.3) per ogni dato iniziale X0 , e dall’unicit` segue il fatto che (2.4) descrive tutte le soluzioni al variare di X0 . ` tuttavia interessante ricavare direttamente la formula (2.4) anzich´ E e provarne la validit` a “a posteriori”, perch´e la dimostrazione costruttiva consente di comprenderne meglio il significato. Si tratta di provare che il caso 2) ` e qualitativamente simile al caso omogeneo (b = 0, Teorema 2.1) salvo cambiamenti affini di coordinate (in R): nell’ipotesi a = 1, studiamo le successioni (al variare di X0 ) Zk = Xk − α
∀k ∈ N
(2.5)
ove α = b/ (1 − a) `e l’equilibrio dell’equazione (2.3). Ricavando Xk da (2.5) e sostituendo in (2.3), si ottiene Zk+1 + α = a (Zk + α) + b
Zk+1 +
b ab = aZk + +b 1−a 1−a Zk+1 = aZk
la cui soluzione, dedotta dal Teorema 2.2, Zk = ak Z0 , sostituita nella (2.5) d` a infine
Xk = Zk + α = ak (X0 − α) + α = ak
X0 −
b 1−a
+
b . 1−a
Le Figure 2.1 e 2.2 descrivono l’andamento qualitativo delle traiettorie nei casi discussi nel Teorema 2.5
2.1 Equazioni lineari ad un passo a coefficienti costanti
a=2 b = −1
a=1 b=3
a = 1/2 b=1
Figura 2.1 Soluzione grafica di (2.3) con a = 2, 1, 1/2, b = −1, 3, 1
29
30
2 Equazioni alle differenze lineari
a = −1/2 b=5
a = −1 b=5
a = −2 b=6
Figura 2.2 Soluzione grafica di (2.3) con a = −1/2, −1, −2, b = 5, 5, 6
2.1 Equazioni lineari ad un passo a coefficienti costanti
31
Osservazione 2.6. Nel caso a = 1, l’espressione (2.4) mostra che la distanza |Xk − α| tra il k-esimo termine di X ed il valore di equilibrio `e un fissato multiplo del k-esimo termine della progressione geometrica di ragione |a|: k
|Xk − α| = |X0 − α| |a| . Dunque, se |a| < 1, si ottiene una stima della buona rapidit` a di convergenza all’equilibrio e del miglioramento della maggiorazione dell’errore a ciascun passo: |Xk+1 − α| = |Xk − α| |a| . Esempio 2.7. Nell’Esempio 1.8, se si suppone che r = 0, poich´e l’equilibrio `e R/r, dalla (2.4) segue k R R (1 + r) − 1 k k Sk = S0 − (1 + r) + = (1 + r) S0 − R. r r r Esempio 2.8. (Modello della Ragnatela) Riprendiamo l’Esempio 1.10 del modello domanda-offerta. Se il livello dei prezzi segue la relazione ricorsiva d a+c Pk+1 = − Pk + b b
a, b, c, d > 0
allora −d/b < 0. Poich´e l’equilibrio del modello `e α=
a+c b+d
assegnato un livello iniziale dei prezzi P0 , per la (2.4) l’espressione in forma chiusa del livello del prezzo di equilibrio al tempo k risulta k d a+c a+c Pk = − P0 − + k ∈ N. b b+d b+d Si noti che la negativit` a del termine −d/b implica che il comportamento del prezzo sar` a sempre oscillante, e il fatto che ci sia convergenza o meno dipende dal rapporto fra le pendenze delle curve di domanda e di offerta. In particolare, se d < b allora i valori Pk dei prezzi convergeranno rapidamente all’equilibrio α per k → +∞. Se d > b non si avr` a una stabilizzazione del prezzo. Esercizio 2.1. Date le seguenti equazioni lineari a coefficienti costanti 1 Xk+1 = 4Xk − 1 Xk+1 = Xk − 1 Xk+1 = Xk + 2 (2) 1 (3) (1) 3 X0 = 0 X0 = X0 = 1 4 1 Xk+1 = −3Xk + 5 Xk+1 = −Xk + 1 Xk+1 = − Xk + 3 (6) (5) (4) 5 X0 = 2 X0 = 1 X0 = 3
32
2 Equazioni alle differenze lineari
i) determinarne la soluzione in forma chiusa; ii) studiare il comportamento asintotico della soluzione; iii) disegnare il grafico a ragnatela e l’andamento della soluzione. Esercizio 2.2. (Somma di una progressione aritmetica) Provare che 1 + 2 + 3 + · · · + (k − 1) + k =
k (k + 1) 2
k ∈ N.
Esercizio 2.3. (Somma di una progressione geometrica) Assegnato il numero complesso z poniamo Pk = 1 + z + z 2 + · · · + z k =
k
z n.
n=0
Calcolare Pk come funzione esplicita di k. Esercizio 2.4. Ricavare le tesi del Teorema 2.5 iterando la (2.3) a partire da un dato iniziale X0 . Esercizio 2.5. Assegnato z ∈ C, calcolare Qh,k = z h + z h+1 + · · · + z h+k−1 + z h+k , h, k ∈ N. Esercizio 2.6. Stabilire per quali valori di z ∈ C la serie geometrica
+∞
z k `e
k=0
convergente e calcolarne la somma (si veda l’Appendice A, 18)-26)). Esercizio 2.7. Provare che il numero decimale rappresentato da 0, 9999999 . . . (dove i puntini rappresentano una successione infinita di cifre tutte uguali a 9) coincide con il numero 1.
2.2 Equazioni lineari ad n passi a coefficienti costanti In questo paragrafo vediamo come sia possibile fornire una descrizione completa delle soluzioni per le equazioni lineari a coefficienti costanti anche nel caso a pi` u passi. A questo scopo `e utile premettere alcune definizioni. Definizione 2.9. Definiamo la somma di due successioni F e G qualsiasi, come la successione H il cui generico elemento Hk `e ottenuto come somma dei corrispondenti elementi delle due successioni: Hk = Fk +Gk . Scriveremo H = F + G. Definizione 2.10. Definiamo il prodotto di una successione F per una costante complessa α, come la successione W il cui generico elemento si ottiene moltiplicando per α il corrispondente elemento di F : Wk = αFk . Scriveremo W = αF .
2.2 Equazioni lineari ad n passi a coefficienti costanti
33
Definizione 2.11. Due successioni F e G si dicono linearmente dipendenti se esistono due costanti α e β, non entrambe nulle, tali che αF + βG `e la successione identicamente nulla. In caso contrario F e G si dicono linearmente indipendenti. Analogamente, n successioni F j , j = 1, 2, . . . , n, si dicono linearmente se esistono n costanti α1 , α2 , . . . , αn non tutte nulle tali che ndipendenti j e la successione identicamente nulla (cio`e α1 Fk1 + α2 Fk2 + · · · + j=1 αj F ` +αn Fkn = 0 , ∀k). L’insieme delle successioni a valori complessi, dotato delle due operazioni sopra introdotte, `e uno spazio vettoriale di dimensione infinita. Questo significa che la somma di (un numero finito) successioni o il prodotto di una successione per una costante sono ancora successioni, e che, comunque si scelga un intero positivo n, `e possibile trovare n successioni linearmente indipendenti. Definizione 2.12. Assegnate n costanti a0 , a1 , . . . , an−1 con a0 = 0, si dice equazione alle differenze, lineare omogenea, di ordine n, a coefficienti costanti, il sistema di infinite relazioni
Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = 0
∀k ∈ N (2.6)
L’espressione equazione ad n passi sar`a usata come sinonimo di equazione di ordine n. Teorema 2.13. (Principio di sovrapposizione) Se X ed Y sono soluzioni di (2.6), allora anche X + Y e cX sono soluzioni per ogni costante c. Dunque, l’insieme delle soluzioni di (2.6) `e uno spazio vettoriale. Prova. Si ottiene per semplice sostituzione in (2.6).
Il teorema precedente suggerisce l’opportunit` a di cercare “un numero sufficiente di soluzioni” che formino una base per lo spazio delle soluzioni. Per analogia con il caso delle equazioni lineari a coefficienti costanti del primo ordine, si possono cercare soluzioni dell’equazione omogenea (2.6) del tipo Xk = cλk
c = 0.
Se una tale successione risolve (2.6), si ottiene per sostituzione: λk λn + an−1 λn−1 + · · · + a1 λ + a0 = 0 ∀k ∈ N cio`e λ deve essere soluzione di λn + an−1 λn−1 + · · · + a1 λ + a0 = 0.
34
2 Equazioni alle differenze lineari
Vedremo che tutte le soluzioni di (2.6) possono essere ottenute a partire da queste. Queste considerazioni giustificano le seguenti definizioni. Definizione 2.14. Si dice polinomio caratteristico, indicato con P (λ), associato all’equazione omogenea (2.6) il seguente polinomio di grado n nella variabile λ: P (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 L’equazione λ∈C:
P (λ) = 0
(2.7)
si dice equazione caratteristica associata all’equazione omogenea. Per il Teorema fondamentale dell’Algebra, l’equazione (2.7) ha esattamente n soluzioni nel campo complesso: λ1 , . . . , λn (ciascuna di esse si intende contata con la sua molteplicit` a). Anche se le costanti a0 , a1 , . . . , an−1 sono tutte reali una o pi` u radici λj possono essere complesse. Teorema 2.15. L’equazione (2.6) ammette infinite soluzioni. Fra tali soluzioni se ne possono determinare n linearmente indipendenti; inoltre l’insieme delle soluzioni della (2.6) `e un sottospazio di dimensione n dello spazio delle successioni. Se λ `e una soluzione semplice (cio`e di molteplicit` a 1) dell’equazione caratteristica (2.7), ad essa `e associata una soluzione dell’equazione alle differenze della forma Fk = λk
Se λ `e una soluzione dell’equazione caratteristica di molteplicit` a m, ad essa sono associate le m soluzioni linearmente indipendenti
Fk0 = λk , Fk1 = kλk , Fk2 = k 2 λk , . . . Fkm−1 = k m−1 λk
(2.8)
Tutte le soluzioni dell’equazione alle differenze (2.6) sono combinazioni lineari di tali soluzioni.
2.2 Equazioni lineari ad n passi a coefficienti costanti
35
Nel caso in cui i coefficienti aj dell’equazione (2.6) sono tutti reali, i risultati contenuti nel Teorema 2.15 possono essere ulteriormente precisati: in particolare ha interesse scrivere le soluzioni di (2.6) in forma reale anche se alcune radici del polinomio caratteristico sono complesse. Pi` u precisamente: se a0 , a1 , . . . , an−1 sono reali e λ = a + ib `e soluzione della (2.7), con a e b reali e b diverso da 0, allora anche λ = a−ib `e soluzione e a tale coppia di soluzioni sono associate le due soluzioni linearmente indipendenti in forma reale Fk = ρk cos (θk)
Gk = ρk sin (θk)
dove ρ `e il modulo e θ `e l’argomento di a + ib: ρ=
a2 + b 2
a cos θ = √ 2 a + b2
b sin θ = √ . 2 a + b2
L’affermazione precedente si ottiene scrivendo in forma reale l’espressione seguente: k k c1 (a + ib) + c2 (a − ib) a, b ∈ R. Precisamente, se a + ib = ρ (cos θ + i sin θ) , allora: k
k
(a + ib) = ρk (cos θ + i sin θ) = = ρk (cos (θk) + i sin (θk)) .
per la formula di De Moivre
k
Procedendo allo stesso modo su (a − ib) , si pu` o concludere che per ogni scelta di c1 e c2 esistono due costanti c1 e c2 dipendenti da c1 , c2 e k, tali che c1 (a + ib)k + c2 (a − ib)k = c1 ρk cos (θk) + c2 ρk sin (θk) . ! Si noti che, grazie alla formula di De Moivre, le due successioni ρk cos (θk) ! e ρk sin (θk) generano, mediante combinazioni lineari a coefficienti in C, lo stesso spazio bidimensionale di"successioni a valori complessi generato dalle # ! k k combinazioni lineari di λ e λ . Analogamente, se λ = a + ib `e una soluzione complessa della (2.7) di molteplicit` a m ed a0 , a1 . . . , an−1 sono reali, allora ad essa e alla soluzione λ = a − ib , pure di molteplicit` a m, sono associate le 2m soluzioni linearmente indipendenti
Fk0 = ρk cos (θk) , Fk1 = kρk cos (θk) , . . . , Fkm−1 = k m−1 ρk cos (θk) G0k = ρk sin (θk) , G1k = kρk sin (θk) , . . . , Gm−1 = k m−1 ρk sin (θk) k
36
2 Equazioni alle differenze lineari
Prova. (del Teorema 2.15 ) Ad ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 corrisponde una ed una sola soluzione che si costruisce calcolando iterativamente i valori Xk . Poich´e ogni n-upla di dati iniziali si ottiene come combinazione lineare delle n scelte di dati iniziali fra loro linearmente indipendenti 1, 0, 0, . . . 0, 1, 0, . . . 0, 0, 1, . . . ... 0, 0, 0, . . .
0, 0 0, 0 0, 0 0, 1
e, per il principio di sovrapposizione delle soluzioni, le combinazioni lineari di soluzioni di (2.6) sono soluzioni, concludiamo che l’insieme di tutte le soluzioni ` e un sottospazio di dimensione n dello spazio delle successioni. Si osservi che nessuna radice di P `e nulla perch´e a0 = 0. Dunque tutte le n successioni elencate nelle cornici sono non banali. Resta da provare che sono soluzioni e che sono tra loro linearmente indipendenti. Sia λ una soluzione dell’equazione P (λ) = 0. Allora, sostituendo λk al posto di Xk nel primo membro dell’equazione (2.6) si ottiene λk+n + an−1 λk+n−1 + · · · + a0 λk = λk P (λ) che `e nullo per ipotesi. Dunque, Xk = λk `e una soluzione. Osserviamo che se μ `e radice di molteplicit` a m > 1 dell’equazione P (λ) = 0, allora1 P (μ) = P (μ) = · · · = P (m−1) (μ) = 0 .
(2.9)
Sia μ una soluzione di molteplicit` a 2 dell’equazione caratteristica. Allora, sostituendo kλk al posto di Xk nel primo membro della (2.6), si ottiene (k + n) λk+n +(k + n − 1) an−1 λk+n−1 +· · ·+a0 kλk = kλk P (λ)+λk+1 P (λ) (2.10) dato che
P (λ) = nλn−1 + (n − 1) an−1 λn−2 + · · · + 2a2 λ + a1 .
Poich´e, per la (2.9), P (μ) = P (μ) = 0, dalla (2.10) segue che kμk `e soluzione di (2.6). Sia ora μ radice di molteplicit` a m ≥ 2 dell’equazione caratteristica. Fissato n, poniamo an = 1, e per 1 ≤ h ≤ m definiamo Qh,k (λ) = (k + n)h−1 λk+n + (k + n − 1)h−1 an−1 λk+n−1 + · · · + kh−1 a0 λk = n
(k + s)h−1 as λk+s . = s=0
Qh,k (λ) `e il polinomio nella variabile λ di grado minore o uguale a k + n che si ottiene sostituendo kh−1 λk al posto di Xk nel primo membro della (2.6). 1
Infatti, se μ `e radice di molteplicit` a h dell’equazione P (λ) = 0, si pu` o scrivere: P (λ) = (λ − μ)h Q (λ)
con Q polinomio di grado n − h in λ, e derivando si ottiene la (2.9).
2.2 Equazioni lineari ad n passi a coefficienti costanti
37
Se Qh,k `e esprimibile come combinazione lineare a coefficienti polinomi in λ di P e delle sue derivate successive fino all’ordine h − 1 (si noti che la (2.10) ci dice che ci` o `e vero se m = 2), cio`e se Qh,k (λ) =
h−1
cj (λ) P (j) (λ)
(2.11)
j=0
allora da (2.9) segue Qh,k (μ) = 0, dunque km−1 λk `e una soluzione di (2.6). Proviamo la (2.11). Dobbiamo mostrare che, fissato n, se vale (2.9) per m ≥ 2 e μ ∈ C, allora Qh,k (μ) = 0
∀k ∈ N ∀h ≤ m.
Ragioniamo sull’indice h in modo analogo all’induzione. Poich´e μ `e radice di P Q1,k (μ) = P (μ) = 0
∀k ∈ N.
Rimane da provare che, nell’ipotesi (2.9), se per un intero h < m e per ogni k il polinomio Qh,k (λ) `e una combinazione lineare (a coefficienti polinomi in λ) di P, P , . . . , P (h−1) e dunque ∀k ∈ N
Qh,k (μ) = 0
allora, per ogni k, Qh+1,k `e una combinazione lineare (a coefficienti polinomi in λ) di P, P , . . . , P (h) e dunque Qh+1,k (μ) = 0
∀k ∈ N.
Dalla catena di uguaglianze: Qh+1,k (λ) =
n
(k + s)h as λk+s =
s=0
=
n
n
(k + s)h−1 as (k + s) λk+s =
s=0
(k + s)h−1 as λ
s=0
n d d k+s λ =λ (k + s)h−1 as λk+s = dλ dλ s=0
d Qh,k (λ) = dλ h−1
cj (λ) P (j+1) (λ) + cj (λ) P (j) (λ) =λ
=λ
j=0
nuovamente per la (2.9) segue che Qh+1,k (μ) = 0. Rimane da provare l’indipendenza lineare delle soluzioni trovate. a provare l’indipendenza lineare dei Nel caso di n radici distinte μ1 , . . . , μn baster` primi n valori delle successioni, cio`e ⎤ ⎡ 1 μ1 μ21 . . . μn−1 1 n−1 2 ⎢ 1 μ2 μ2 . . . μ2 ⎥ ⎢ ⎥ det ⎢ . . . . . ⎥ = 0 ⎣ .. .. .. . . .. ⎦ 1 μn μ2n . . . μn−1 n
38
2 Equazioni alle differenze lineari
disuguaglianza vera se μj sono distinti perch´e tale determinante (determinante di Vandermonde2 ) vale (μn − μn−1 ) (μn − μn−2 ) · · · (μn − μ1 ) (μn−1 − μn−2 ) · · · (μn−1 − μ1 ) · · · (μ2 − μ1 ) . Se μ `e radice di molteplicit` a m nell’equazione caratteristica e c1 , c2 , . . . , cm sono costanti reali tali che c1 μk + c2 kμk + c3 k2 μk + · · · + cm km−1 μk = 0
k∈N
allora deve anche valere c1 + c2 k + c3 k2 + · · · + cm km−1 = 0
k∈N
e dal principio di identit` a dei polinomi segue c1 = c2 = · · · = cm = 0. Omettiamo i dettagli nel caso in cui siano contemporaneamente presenti radici semplici e multiple.
Riassumendo, il Teorema 2.15 consente di costruire n soluzioni linearmente indipendenti: infatti, le radici (contate con la loro molteplicit` a) del polinomio caratteristico di un’equazione alle differenze di ordine n sono esattamente n, grazie al Teorema fondamentale dell’Algebra. Tutte le soluzioni dell’equazione (2.6) sono combinazioni lineari delle n soluzioni linearmente indipendenti elencate nelle cornici del Teorema 2.15. Una tale combinazione `e detta soluzione generale di (2.6) perch´e al variare dei coefficienti si ottengono tutte le soluzioni. Precisamente, per ogni scelta dei dati iniziali X0 , X1 , . . . , Xn−1 si determina un’unica scelta di tali coefficienti e di conseguenza un’unica soluzione. Esempio 2.16. All’equazione alle differenze Xk+3 − 4Xk+2 + 5Xk+1 − 2Xk = 0 si associa l’equazione caratteristica λ3 − 4λ2 − 5λ − 2 = 0 che si fattorizza in 2
(λ − 1) (λ − 2) = 0. Dunque, abbiamo la radice semplice 2 e la radice doppia 1. La soluzione generale dell’equazione alle differenze `e Xk = c1 2k + c2 + c3 k
k∈N
dove c1 , c2 e c3 sono costanti arbitrarie. Se all’equazione alle differenze si aggiungono le condizioni iniziali X0 = 0, X1 = 1 e X2 = 0, per sostituzione, si ottiene il sistema: ⎧ ⎧ ⎨ c1 = −2 ⎨ c1 + c2 = 0 2c1 + c2 + c3 = 1 c2 = 2 equivalente a ⎩ ⎩ 4c1 + c2 + 2c3 = 0 c3 = 3 da cui Xk = −2k+1 + 3k + 2. 2
Alexandre-Th´eophile Vandermonde, 1735-1796.
2.2 Equazioni lineari ad n passi a coefficienti costanti
Esempio 2.17. L’equazione
Ck+1 = Ck + Ck−1 C0 = 0, C1 = 1
39
k ∈ N\ {0}
che descrive ricorsivamente i numeri di Fibonacci (si veda l’Esempio 1.10) `e lineare, a coefficienti costanti, del secondo ordine. Il polinomio caratteristico λ2 − λ − 1 ammette le radici √ √ 1+ 5 1− 5 λ1 = λ2 = ; 2 2 k
k
dunque, la soluzione generale `e data da Ck = c1 (λ1 ) + c2 (λ2 ) . Inoltre √ √ 1+ 5 1− 5 C0 = c1 + c2 = 0, C 1 = c1 + c2 =1 2 2 √ √ da cui segue c1 = +1/ 5, c2 = −1/ 5. Riassumendo:
1 Ck = √ 5
$
$ √ %k √ %k 1+ 5 1− 5 1 − √ 2 2 5
k∈N
1 − √5 |λ1 | = <1 2
Osserviamo che da
segue lim λk1 = 0 e quindi k
√ Ck+1 λk+1 1+ 5 2 lim = lim k = λ2 = . k k Ck 2 λ2 Inoltre, ricordando che tutti i numeri di Fibonacci sono interi, da 1 k 1 √ λ1 < 5 2 segue che Ck `e l’intero pi` u vicino a 1 k 1 √ di 5 λ2 + 2 .
√1 λk 5 2
o, se si preferisce, `e la parte intera
Esempio 2.18. Risolviamo l’equazione Xk+2 + Xk = 0 con le condizioni iniziali X0 = 0, X1 = 1. Primo metodo: si tratta di una equazione alle differenze lineare, a coefficienti costanti, del secondo ordine, omogenea. L’equazione caratteristica λ2 + 1 = 0 ammette le due radici complesse coniugate λ1,2 = ±i e cos`ı la soluzione generale dell’equazione considerata `e
40
2 Equazioni alle differenze lineari
Xk = c1 ik + c2 (−i)
k
k ∈ N.
Imponendo le condizioni iniziali, otteniamo
0 = X0 = c1 + c2 ossia 1 = X1 = ic1 − ic2
c1 = −i/2 c2 = i/2
Secondo metodo: la formulazione reale (equivalente) della soluzione generale `e k∈N
Xk = d1 cos (kπ/2) + d2 sin (kπ/2)
ottenuta da |i| = |−i| = 1, π/2 = arg (i). Sostituendo i dati iniziali, si ottiene Xk = sin (kπ/2). Terzo metodo: si pu` o osservare che i termini di indice pari e dispari sono disaccoppiati. Posto: Yk = X2k
Zk = X2k+1
si ottiene Yk+1 + Yk = 0 k
Yk = (−1) Y0 k
X2k = (−1) X0
Zk+1 + Zk = 0 k
Zk = (−1) Z0 k
X2k+1 = (−1) X1 . k
Sostituendo i dati iniziali X2k = 0, X2k+1 = (−1) , ∀k. Consideriamo l’equazione alle differenze lineare, ad n passi, non omogenea
Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = b
∀k ∈ N
con b costante fissata, a0 , a1 , . . . , an−1 costanti assegnate, a0 = 0. La soluzione generale Xk `e data dalla somma della soluzione generale del problema omogeneo (2.6) pi` u un termine del tipo ak m ove m `e la molteplicit` a dell’eventuale radice 1 del polinomio caratteristico (si pone m = 0 se 1 non `e radice) e a `e una costante da determinarsi mediante sostituzione. Esempio 2.19. Consideriamo l’equazione alle differenze Xk+2 − 2Xk+1 + Xk = 1.
(2.12)
L’equazione caratteristica dell’equazione omogenea Xk+2 − 2Xk+1 + Xk = 0 ammette 1 come radice doppia. Cerchiamo allora una soluzione dell’equazione assegnata della forma Yk = ak 2
2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti
41
con a costante reale da determinare. Sostituendo l’espressione di Yk in (2.12), otteniamo: & ' 2 2 a (k + 2) + −2 a (k + 1) + ak 2 = 1 cio`e, confrontando i coefficienti delle potenze di k, a = 1/2. 1 In conclusione, la soluzione generale di (2.12) `e Xk = c1 + c2 k + k 2 . 2 Per l’analisi di casi pi` u generali, si rimanda ai paragrafi 2.4 e 2.5. Esercizio 2.8. Discutere, al variare di a e b in R, il comportamento asintotico della soluzione dell’equazione lineare a due passi omogenea Xk+2 + aXk+1 + bXk = 0
k ∈ N, b = 0 .
Esercizio 2.9. Determinare la soluzione generale delle seguenti equazioni alle differenze: √ (2) Xk+2 − 3Xk+1 + Xk = 0 (1) Xk+2 − 2Xk+1 − 3Xk = 0 (3)
Xk+3 − Xk+2 + Xk+1 − Xk = 0
(4)
Xk+3 + 5Xk+2 + 7Xk+1 + 3Xk = 0
(5)
Xk+2 − 2Xk+1 − 3Xk = 2
(6)
Xk+3 − Xk+2 + Xk+1 − Xk = −1 .
2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti Gi` a nel caso dell’equazione alle differenze lineare ad un passo Xk+1 = aXk + b abbiamo osservato che gli eventuali equilibri (soluzioni di (1 − a) x = b) possono avere natura molto diversa: possono “attrarre” le soluzioni corrispondenti ad ogni dato iniziale X0 (se |a| < 1), alternativamente “respingerle” (se |a| > 1). Nel caso a = −1 non le attraggono n´e le respingono perch´e le soluzioni sono periodiche; inoltre, se si parte vicino all’equilibrio la soluzione rimane vicino all’equilibrio. Nel caso a = 1 se b `e diverso da zero non vi sono equilibri, se b = 0 allora tutti i punti sono di equilibrio, dunque non attraggono, n´e respingono, tuttavia hanno una propriet` a di “stabilit` a”. In questo paragrafo precisiamo la natura di questo tipo di propriet` a degli equilibri nel caso pi` u generale di equazioni lineari a pi` u passi. Cominciamo con l’analisi di un problema lineare a due passi (a0 = 0) Xk+2 + a1 Xk+1 + a0 Xk = b
k ∈ N.
(2.13)
Un equilibrio per una equazione (alle differenze) a due passi lineare a coefficienti costanti `e un valore α ∈ R tale che la successione costante Xk = α, ∀k ∈ N, `e soluzione di (2.13). Un equilibrio α si dice attrattivo se, per ogni coppia di dati iniziali X0 e X1 , la soluzione corrispondente tende all’equilibrio, cio`e
42
2 Equazioni alle differenze lineari
lim Xk = α. k
Un equilibrio α si dice stabile se a partire da dati iniziali prossimi all’equilibrio si rimane vicini all’equilibrio, cio`e se per ogni ε > 0 esiste un δ > 0 tale che |X0 − α| + |X1 − α| < δ
⇒
|Xk − α| < ε
∀k ∈ N.
Poich´e α `e un equilibrio per (2.13) se e solo se `e soluzione dell’equazione x + a1 x + a0 x = b possiamo dedurre che: • se 1 + a1 + a0 = 0, allora esiste un solo equilibrio α = b/ (1 + a1 + a0 ) per (2.13); • se 1 + a1 + a0 = 0 e b = 0, allora ogni α ∈ R `e di equilibrio; • se 1 + a1 + a0 = 0 e b = 0, allora non esistono equilibri. Se λ1 , λ2 sono le radici del polinomio caratteristico, allora dall’espressione della soluzione generale, si ricavano le seguenti conclusioni sulla stabilit` a di eventuali equilibri: • α `e attrattivo se e solo se |λ1 | < 1 e |λ2 | < 1; • α `e stabile se e solo se entrambe le radici λ1 , λ2 hanno modulo minore o uguale a 1 e le eventuali radici di modulo 1 sono tutte semplici e, nel caso b = 0, diverse da 1; • se α `e attrattivo allora `e anche stabile. Consideriamo, in generale, l’equazione alle differenze ad n passi a coefficienti costanti (a0 = 0) Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = b
k ∈ N (2.14)
dove a0 , a1 , . . . , an−1 , b sono assegnati numeri reali o complessi. Definizione 2.20. Un equilibrio per la (2.14) `e un numero α cui corrisponde una soluzione costante Xk = α. Sostituendo, per ogni k, Xk = α in (2.14) si giunge facilmente alla conclusione che: • se 1 + an−1 + an−2 + · · · + a0 = 0, allora esiste un unico equilibrio: α = b/ (1 + an−1 + an−2 + · · · + a0 ) ; • se 1 + an−1 + an−2 + · · · + a0 = 0, allora se b = 0 ogni α ∈ R `e un equilibrio, se b = 0 non esistono equilibri.
2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti
43
Definizione 2.21. Un equilibrio α di (2.14) si dice equilibrio stabile se per ogni ε > 0 esiste un δ > 0 tale che n−1
|Xj − α| < δ
⇒
|Xk − α| < ε
∀k ∈ N
j=0
cio`e dati iniziali vicini all’equilibrio generano traiettorie che si mantengono (uniformemente in k) vicine all’equilibrio. Definizione 2.22. Un equilibrio α di (2.14) si dice equilibrio attrattivo se per ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 , la corrispondente soluzione Xk verifica lim Xk = α. k
Teorema 2.23. Un equilibrio α dell’equazione lineare (2.14): 1) `e attrattivo se e solo se ogni soluzione λ dell’equazione caratteristica verifica |λ| < 1; 2) `e stabile se e solo se ogni soluzione λ dell’equazione caratteristica verifica |λ| ≤ 1 , eventuali radici di modulo unitario sono semplici e, se b = 0, diverse da 1; 3) se `e attrattivo allora `e anche stabile. Prova. Il cambio di coordinate Yk = Xk − α ci riconduce al sistema omogeneo con la stessa equazione caratteristica nell’incognita Y : Yk+n + an−1 Yk+n−1 + an−2 Yk+n−2 + · · · + a0 Yk = 0. α `e stabile (rispettivamente attrattivo) per X se e solo se 0 `e stabile (rispettivamente attrattivo) per Y . Allora 1) e 2) seguono dall’espressione esplicita delle soluzioni Yk =
m−1
λj
ricordando che:
cjl kl λkj
l=0
|λ| < 1
⇒
lim kl λk = 0
l ≥ 1 , |λ| = 1
⇒
lim kl λk = +∞ .
La 3) segue immediatamente da 1) e 2).
k
k
Esempio 2.24. Data l’equazione lineare a due passi 6Xk+2 − 5Xk+1 + Xk = 2 ne determiniamo l’equilibrio e discutiamo la sua stabilit` a. Dall’equazione (6 − 5 + 1) α = 2 si ricava α = 1. Le radici dell’equazione caratteristica 6λ2 − 5λ + 1 = 0 sono λ1 = 1/2 e λ2 = 1/3. Dunque α = 1 risulta stabile e attrattivo. La soluzione generale `e Xk = c1 2−k + c2 3−k + 1. Nella Figura 2.3 sono riportati i primi valori della soluzione corrispondente alle condizioni iniziali X0 = 0 e X1 = 2: Xk = 23−k − 32−k + 1.
44
2 Equazioni alle differenze lineari
1
Figura 2.3 Grafico di Xk = 23−k − 32−k + 1
+1
−32
Figura 2.4 Grafico di Xk = 2k/2−1 (cos (kπ/4) − sin (kπ/4))
Esempio 2.25. Consideriamo l’equazione Xk+2 − 2Xk+1 + 2Xk = 0. L’equilibrio `e α = 0. Le soluzioni dell’equazione caratteristica λ2 − 2λ + 2λ = 0 sono √ λ1,2 = 1 ± i. Poich´e |λ1,2 | = 2 l’equilibrio `e instabile. La soluzione generale dell’equazione `e: π π k k k/2 Xk = c1 (1 + i) + c2 (1 − i) = 2 k + c2 sin k k ∈ N. c1 cos 4 4 Se X0 = ε > 0 e X1 = 0, per sostituzione, si ricava c1 = ε e c2 = −ε e, in accordo a quanto gi` a detto, a partire da tali dati iniziali limk |Xk | = +∞ comunque si scelga ε, purch´e positivo. Se si fosse partiti dall’equilibrio X0 = X1 = 0, allora la soluzione si sarebbe mantenuta costante: Xk = 0 per ogni k. Riportiamo in Figura 2.4 l’andamento della soluzione particolare corrispondente ai dati iniziali X0 = 1, X1 = 0. Esempio 2.26. Consideriamo l’equazione Xk+3 + Xk = 0. L’equilibrio `e α = 0 e le soluzioni dell’equazione caratteristica λ3 +1 = 0 sono √ π π 1±i 3 = cos + i sin . λ2,3 = λ1 = −1 2 3 3
2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti
Figura 2.5 Grafico di Xk = (−1)k +
√ 2 3 3
45
sin (kπ/3), successione di periodo 6
Dunque |λj | = 1 con radici distinte: l’equilibrio α `e stabile ma non attrattivo. k La soluzione generale Xk = c1 (−1) +c2 cos (kπ/3)+c3 sin (kπ/3) `e somma di un primo termine 2 periodico e di due termini 3 periodici, pertanto Xk risulta essere periodica di periodo 6. Riportiamo in Figura 2.5 l’andamento della soluzione particolare corrispondente ai dati iniziali X0 = 1, X1 = 0 e X2 = 2. Esempio 2.27. Consideriamo l’equazione 5Xk+2 − 8Xk+1 + 5Xk = 0. L’equilibrio `e α = 0. Le soluzioni dell’equazione caratteristica 5λ2 − 8λ + 5 = 0 sono 4 3 λ1,2 = ± i , distinte ed entrambe di modulo 1. Dunque α `e stabile ma non 5 5 + c2 sin θk dove θ `e `e attrattivo. La soluzione generale Xk = c1 cos θk l’unico angolo in (0, π/2) espresso in radianti che risolve cos θ = 4/5, oscilla attorno all’equilibrio, ma non `e periodica. Infatti, l’angolo θ = arccos (4/5) non `e un sottomultiplo di 2π. Per riassumere il senso generale degli ultimi due esempi, osserviamo che nei casi in cui sono presenti soluzioni dell’equazione caratteristica di forma λ1,2 = cos θ ± i sin θ, allora la soluzione generale contiene termini del tipo Zk = c1 cos (θk) + c2 sin (θk) .
(2.15)
` utile aver chiaro il comportamento di (2.15). Tale successione ha caratteE ristiche di stabilit` a, cio`e se c1 e c2 sono piccole, allora Zk si mantiene piccola: |Zk | ≤ c21 + c22 per ogni k. Inoltre: • se θ = 2π/m per qualche m intero, allora Z `e una successione periodica di periodo minimo uguale ad m, cio`e Zk+m = Zk , ∀k ∈ N, mentre una relazione di tale tipo `e falsa con valori minori di m; • se θ = 2π/m per ogni m intero non nullo, allora Z non `e periodica. Riassumendo l’analisi qualitativa delle traiettorie corrispondenti all’equazione alle differenze lineare, omogenea ad n passi (2.6), possiamo affermare che i modi naturali delle soluzioni (potenze intere delle radici del polinomio caratteristico, vedi (2.8)) hanno un andamento che dipende dalla posizione della corrispondente radice λ nel piano complesso (in particolare |λ| > 1 impli-
46
2 Equazioni alle differenze lineari
− 4 sin θk , successione non periodica Figura 2.6 Grafico di Xk = 4 cos θk
Im
Re
Figura 2.7 Modi naturali delle soluzioni di un’equazione alle differenze lineare a coefficienti costanti, omogenea, in funzione della posizione delle parti reale e immaginaria dell’autovalore λ nel piano complesso
2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti
47
ca divergenza, |λ| < 1 implica convergenza a zero, |λ| = 1 implica limitatezza). I vari comportamenti sono illustrati in Figura 2.7. La determinazione delle soluzioni dell’equazione caratteristica di un’equazione alle differenze lineare a coefficienti costanti omogenea di ordine n, comporta la soluzione di un’equazione algebrica di grado n (si veda l’Appendice B, Equazioni algebriche): nella pratica tale problema per n ≥ 3 viene risolto numericamente (ad esempio, si veda il metodo di Newton, paragrafi 4.7 e 4.8). Sono stati quindi elaborati dei criteri che consentono lo studio della stabilit` a dell’equilibrio nullo per tali equazioni basati esclusivamente sulla conoscenza dei coefficienti dell’equazione stessa. Riportiamo uno dei pi` u noti. Teorema 2.28. (di Schur) Siano a0 , a1 , . . . , an−1 i coefficienti dell’equazione (2.6). Date le matrici triangolari di ordine n ⎡ ⎡ ⎤ ⎤ a0 a1 a2 · · · an−1 1 0 0 ··· 0 ⎢ 0 a0 a1 · · · an−2 ⎥ ⎢ an−1 1 0 · · · 0 ⎥ ⎢ ⎢ ⎥ ⎥ ⎢ ⎢ an−2 an−1 1 · · · 0 ⎥ ⎥ B = ⎢ 0 0 a0 · · · an−3 ⎥ A=⎢ ⎥ ⎢ .. .. .. . . ⎢ .. .. ⎥ .. . . .. ⎥ .. ⎣ . . . ⎣ . . . ⎦ . .⎦ . . 0 0 0 · · · a0
a2 a3 · · · 1
a1
indichiamo con A1 , A2 , . . . , An , e B1 , B2 , . . . , Bn i minori principali di NW delle due matrici. Allora, l’equilibrio nullo dell’equazione (2.6) `e attrattivo se e solo sono tutti i positivi i determinanti delle seguenti matrici (a blocchi): ) ( ) ( ) ( ) ( A2 B 2 A3 B 3 An B n A1 B 1 , , , . . . , . BT1 AT1 BT2 AT2 BT3 AT3 BTn ATn Esempio 2.29. Consideriamo l’equazione alle differenze 1 Xk+3 − Xk+2 + 2Xk+1 − Xk = 0 . 2 ⎡
⎡
⎤ 1 0 0 A = ⎣ −1 1 0 ⎦ 2 −1 1
Si ha:
⎤ − 12 2 −1 2⎦ B = ⎣ 0 − 12 1 0 0 −2
e quindi (
A1 B 1 BT1 AT1
)
( =
) 1
1 −2 − 12 1
⎡
(
A2 B 2 BT2 AT2
1 0 0 ⎢ −1 1 0 ( ) ⎢ ⎢ 2 −1 1 A3 B 3 =⎢ ⎢ −1 BT3 AT3 ⎢ 2 10 0 ⎣ 2 − 0 2 −1 2 − 12
⎤ 1 0 − 12 2 ⎢ −1 1 0 − 1 ⎥ 2⎥ =⎢ ⎣ −1 −1 1 −1 ⎦ 2 2 2 0 0 1 ⎤ 2 −1 − 12 0 − 12 2⎥ ⎥ 0 0 − 12 ⎥ ⎥ 1 −1 2 ⎥ ⎥ 0 1 −1 ⎦ 0 0 1
)
⎡
48
2 Equazioni alle differenze lineari
Poich´e ) ) ) ( ( ( 3 9 243 A2 B 2 A3 B 3 A1 B 1 = = − = > 0 ; det < 0 ; det >0 det T T T T T T B 1 A1 B 2 A2 B 3 A3 4 4 64 concludiamo che l’equilibrio nullo non `e attrattivo. Esercizio 2.10. Determinare eventuali equilibri dell’equazione 1 3 Xk+2 − Xk = 4 2 e discuterne la stabilit` a. Determinare inoltre la soluzione, rappresentandola graficamente in corrispondenza ai dati iniziali X0 = 1 e X1 = 0. Esercizio 2.11. Data l’equazione 2Xk+2 + 2Xk+1 + Xk = 0: (a) determinare la soluzione generale (sia in termini complessi, sia in termini reali); (b) determinare eventuali equilibri e studiarne la loro natura; (c) determinare la soluzione particolare corrispondente ai dati iniziali X0 = 0 e X1 = −1. Esercizio 2.12. Data l’equazione Xk+2 − 4Xk+1 + 5Xk = 6: (a) determinare la soluzione generale; (b) individuare eventuali equilibri, studiandone la natura. Esercizio 2.13. Data l’equazione 2Xk+2 + 2Xk+1 + Xk = −10: (a) determinare la soluzione generale; (b) determinare eventuali equilibri e studiarne la natura. Esercizio 2.14. Dimostrare che l’equilibrio nullo α = 0 per l’equazione omogenea del secondo ordine Xk+2 + a1 Xk+1 + a0 Xk = 0 `e stabile e attrattivo se e solo se valgono le relazioni a0 < 1
1 + a1 + a0 > 0
1 − a1 + a0 > 0
equivalenti a a0 < 1
|a1 | < 1 + a0 .
2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare Studiamo ora il caso lineare non omogeneo con il secondo membro non costante, cio`e dipendente da k. In questa sezione determiniamo le soluzioni con il metodo elementare detto metodo dei coefficienti indeterminati. Nel successivo paragrafo discutiamo una tecnica meno elementare ma pi` u generale, cio`e la Z-trasformata. Definizione 2.30. Se a0 `e una costante diversa da zero ed F `e una assegnata successione, si dice equazione alle differenze lineare affine (o lineare non omogenea), di ordine n, a coefficienti costanti, il sistema di infinite equazioni nell’incognita X:
2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare
Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = Fk
49
∀k ∈ N (2.16)
Osservazione 2.31. Spesso l’equazione non omogenea (2.16) `e chiamata equazione completa, e con riferimento ad essa l’equazione (2.6), con gli stessi coefficienti a primo membro ed il secondo membro nullo, `e detta equazione omogenea associata alla (2.16). Teorema 2.32. Se Y `e una soluzione particolare dell’equazione completa (2.16), allora tutte le soluzioni di (2.16) si esprimono come Y + X ove X `e una soluzione dell’equazione omogenea corrispondente. Il teorema appena enunciato ci indica la strada per risolvere la (2.16). Una volta individuata la soluzione generale dell’equazione omogenea corrispondente, `e sufficiente determinare una soluzione particolare dell’equazione completa: la somma di queste due soluzioni fornisce la soluzione generale dell’equazione completa. Si noti che, se Fk `e una costante ed 1 non `e radice del polinomio caratteristico, allora un eventuale equilibrio della (2.16) `e anche una soluzione particolare. Esempio 2.33. Determiniamo la soluzione generale dell’equazione Xk+2 − 4Xk+1 + 3Xk = 2k
k ∈ N.
L’equazione caratteristica dell’equazione omogenea λ2 − 4λ + 3 = 0 ammette come soluzioni λ1 = 1 e λ2 = 3. Dunque, la soluzione generale dell’equazione omogenea `e Xk = c1 + c2 3k k ∈ N. Cerchiamo ora una soluzione particolare dell’equazione completa del tipo X k = a2k con a costante reale da determinare. Sostituendo tale espressione nell’equazione completa, otteniamo a2k+2 − 4a2k+1 + 3a2k = 2k
k∈N
e dividendo per 2k 4a − 8a + 3a = 1
⇒
a = −1.
In definitiva, la soluzione generale dell’equazione completa `e Xk = c1 + c2 3k − 2k
k ∈ N.
Esempio 2.34. Determiniamo la soluzione generale dell’equazione Xk+2 − 4Xk+1 + 3Xk = bk
k∈N
50
2 Equazioni alle differenze lineari
ove b `e una costante reale, positiva e diversa da 1. Dall’esempio precedente conosciamo gi`a la soluzione generale dell’equazione omogenea. Proviamo allora a cercare una soluzione particolare dell’equazione completa del tipo X k = βbk . Per sostituzione, otteniamo βbk+2 − 4βbk+1 + 3βbk = bk
k∈N
e dividendo per bk = 0 βb2 − 4βb + 3β = 1
⇒
β b2 − 4b + 3 = 1.
L’ultima equazione scritta individua univocamente la costante β a patto che la quantit` a in parentesi tonda sia diversa da zero, ossia a patto che b non sia soluzione dell’equazione caratteristica dell’equazione omogenea (cio`e b = 1 e b = 3). Il lettore verifichi che se b = 1 o b = 3, allora una soluzione particolare dell’equazione completa `e del tipo X k = βkbk . Il metodo applicato negli esempi consente di determinare una soluzione esplicita nei casi in cui il secondo membro F `e un polinomio, una funzione esponenziale o una funzione trigonometrica, come sintetizzato nella Tabella 2.1.
Tabella 2.1 Metodi per la ricerca di soluzioni particolari dell’equazione (2.16) soluzione particolare∗
Fk β
k
cβ k cm km + cm−1 km−1 + · · · + c1 k + c0 β cm km + cm−1 km−1 + · · · + c1 k + c0
km m
k β
k
k
sin (θk) o cos (θk)
c1 sin (θk) + c2 cos (θk)
β k sin (θk) o β k cos (θk)
β k (c1 sin (θk) + c2 cos (θk))
∗
La successione nella seconda colonna non deve essere soluzione dell’equazione omogenea. Se la successione nella seconda colonna `e gi` a soluzione dell’equazione omogenea, allora occorre moltiplicarla per una potenza di k con esponente uguale alla molteplicit` a della radice corrispondente.
Esercizio 2.15. Provare la seguente formula che fornisce la somma dei quadrati dei primi k numeri interi positivi 1 + 4 + 9 + · · · + k2 =
1 k (2k + 1) (k + 1) . 6
Esercizio 2.16. Calcolare la somma dei cubi dei primi k numeri interi.
2.5 La Z-trasformata
51
Esercizio 2.17. Esplicitare la soluzione del sistema ottenuto nella soluzione dell’Esercizio 1.3. Esercizio 2.18. Determinare la soluzione generale delle seguenti equazioni alle differenze: 1) Xk+2 − 2Xk+1 − 3Xk = (−3)k √ √ 2) Xk+2 − 2 3Xk+1 − 4Xk = 3 + 2 3 k π k 3) Xk+3 − Xk+2 + Xk+1 − Xk = sin 2 4) Xk+3 + 5Xk+2 + 7Xk+1 + 3Xk = (−1)k
2.5 La Z-trasformata La Z- trasformata `e uno strumento matematico di grande importanza nella elaborazione dei segnali. Qui ne viene data una breve presentazione, quale possibile metodo per la soluzione di equazioni alle differenze lineari con secondi membri non costanti. Precisamente, tale tecnica consente di determinare soluzioni particolari con dati iniziali assegnati anche nel caso di secondi membri che non sono funzioni elementari dell’indice k. Definizione 2.35. La Z-trasformata di una successione X = {Xk } (indicata a volte con Z {X}) `e una funzione x (z) della variabile complessa z definita come somma di una serie di potenze i cui coefficienti sono i termini della successione X:
Z {X} (z) = x (z) =
+∞ k=0
Xk zk
La funzione x `e definita per tutti gli z complessi che rendono convergente la serie. Ad esempio, se X `e una successione limitata, allora la serie converge per ogni z complesso tale che |z| > 1. Pi` u in generale, se esiste una costante c ∈ (0, +∞) tale che |Xk | < ck per ogni k, allora la serie converge per ogni z ∈ C tale che |z| > c. Il lettore che non abbia familiarit` a con i numeri complessi pu` o comunque operare considerando la restrizione di tale funzione definita sulla sola semiretta reale {x ∈ R : x > c}, con c opportuno numero reale positivo. ` immediato accertare la linearit` E a della Z trasformata:
Z {aX + bY } = aZ {X} + bZ {Y }
∀a, b ∈ C,
∀X, Y
52
2 Equazioni alle differenze lineari
Teorema 2.36. La Z-trasformata di una successione `e derivabile all’interno dell’insieme di convergenza. Pi` u precisamente, ammette derivate di ogni ordine. Presentiamo nel seguito alcuni esempi elementari ma importanti di Z-trasformate: i nomi (e la simbologia adottata) sono mutuati dalla terminologia in uso nella teoria dei segnali discreti. Esempio 2.37. (Segnale di Heaviside, U ) Se Uk = 1 per ogni k ∈ N, allora, posto u (z) = Z {U }, risulta: u (z) =
z . z−1
Infatti, ricordando la formula che fornisce la somma di una serie geometrica convergente, se |z| > 1, allora |1/z| < 1 e u (z) =
+∞ 1 1 z = = . k z 1 − 1/z z−1
k=0
Esempio 2.38. (Impulso, K 0 ) ! Se K00 = 1 e Kk0 = 0 per ogni k ≥ 1, allora, posto k 0 (z) = Z K 0 , vale
k 0 (z) = 1.
Esempio 2.39. (Segnale di Kronecker, K n ) Se Knn = 1 e Kkn = 0 per ogni k = n, allora, posto k n (z) = Z {K n }, vale k n (z) = z −n .
Si noti che K 0 e K n sono successioni, mentre Kk0 e Kkn sono i corrispondenti termini k-esimi di tali successioni. Esempio 2.40. (Segnale lineare, L) Se Lk = k per ogni k ∈ N, allora, posto l (z) = Z {L}, risulta l (z) =
Infatti l (z) =
+∞ k=0
= −z
+∞ k=0
d dz
z 2
(z − 1)
.
k = zk
1 zk
d = −z dz
$+∞ % 1 d z z = −z = 2 zk dz z − 1 (z − 1) k=0
ove si `e sfruttata la commutativit` a delle operazioni di derivazione e di somma di una serie, valida all’interno dell’insieme di convergenza di una serie di potenze.
2.5 La Z-trasformata
53
Vediamo ora come agisce la Z-trasformata sullo “scorrimento” degli indici nella successione da trasformare: l’estrema semplicit`a di tale azione `e di grande utilit` a nello studio delle equazioni alle differenze e nel trattamento di segnali discreti con ritardo. Definizione 2.41. Assegnata una successione X = {X0 , X1 , X2 , . . . }, si dice traslazione in avanti la trasformazione τn che ad X associa la successione τn X = {0, 0, . . . , 0, X0 , X1 , X2 , . . . } . n termini
Con abuso di notazione, porremo, per brevit` a, τn X = {Xk−n }k∈N . Definizione 2.42. Assegnata una successione X = {X0 , X1 , X2 , . . . }, si dice traslazione all’indietro la trasformazione τ−n che ad X associa la successione τ−n X = { Xn , Xn+1 , Xn+2 , . . . } . Si noti che ora, oltre allo scorrimento, c’`e la perdita dei primi n termini della successione X. Con abuso di notazione, sempre per brevit` a, porremo τ−n X = {Xk+n }k∈N .
Figura 2.8 Nella presentazione dei segnali discreti `e utile visualizzare graficamente i termini delle successioni: (a) K 0 , (b) K n, (c) U , (d) L
Riportiamo qui un elenco che consente di ottenere rapidamente le trasformate e le antitrasformate in alcuni casi particolari (a sinistra `e indicata la successione, a destra la corrispondente Z-trasformata).
54
2 Equazioni alle differenze lineari
τ1 X
z −1 x (z)
τn X
z −n x (z)
τ−1 X
zx (z) − zX0
τ−2 X
z 2 x (z) − z 2 X0 − zX1
Enunciamo in generale come opera la Z-trasformata sulle traslazioni, lasciando la dimostrazione per esercizio. Teorema 2.43. Sia X una successione. Allora, con riferimento alle Definizioni 2.41 e 2.42 Z {τn X} = z −n x (z) Z {τ−n X} = z n x (z) − z n X0 − z n−1 X1 − · · · − zXn−1 . Gli esempi precedenti, ed altri analoghi, conducono alla compilazione di tabelle di trasformate che consentono di Z-trasformare le successioni ed effettuare l’operazione inversa, cio`e antitrasformare le funzioni definite nel complementare di dischi del piano complesso: in Appendice G tali risultati sono raccolti in una tabella riassuntiva. Vediamo dapprima con un esempio come utilizzare il metodo della Ztrasformata per risolvere equazioni alle differenze a coefficienti costanti con secondo membro funzione nota dell’indice. Esempio 2.44. Determiniamo una espressione non ricorsiva di X tale che Xk+2 − 2Xk+1 + Xk = 3k k∈N X0 = 0, X1 = 2 La soluzione (che esiste ed `e unica) potrebbe essere calcolata ricorsivamente o con il metodo delle costanti indeterminate illustrato nel paragrafo precedente, giacch´e Fk = 3k `e un polinomio in k. Applichiamo invece il metodo della Z-trasformata. Posto x (z) = Z {X} dalla tabella in Appendice G otteniamo Z {k} = 2 2 a di Z, Z {3k} = 3z/ (z − 1) . Dunque, trasforz/ (z − 1) e, per la linearit` mando l’equazione e, tenendo conto delle traslazioni, otteniamo un’equazione algebrica nell’incognita x (z): 2 z x − z 2 X0 − zX1 − 2 (zx − zX0 ) + x = equivalente a
3z 2
(z − 1)
2.5 La Z-trasformata
x (z) =
3z
2z
2 . (z − 1) (z − 1) A questo punto, sempre dalla tabella $ *% 1 3z −1 Z = k (k − 1) (k − 2) 4 2 (z − 1) *%k $ 2z = 2k Z −1 2 (z − 1) k 4
+
55
otteniamo la soluzione 1 Xk = 2k + k (k − 1) (k − 2) . 2 Generalizzando il secondo membro ed i dati iniziali nell’Esempio 2.44 : Xk+2 − 2Xk+1 + Xk = Fk
con X0 , X1 assegnati
cio`e considerando una generica successione F anzich´e il caso particolare 3k e dati generici X0 e X1 , si pu` o osservare che la relazione tra f = Z {F } e x = Z {X} `e molto semplice: x (z) =
1 g (z) z 2 − 2z + 1
dove g `e la somma di f (trasformata del secondo membro) con una correzione3 che dipende dai dati iniziali e dall’equazione: z 2 − 2z X0 + zX1 , e −1 `e detta funzione di trasferimento4. La funzione di h (z) = z 2 − 2z + 1 trasferimento `e la trasformata della soluzione (o risposta) H corrispondente al secondo membro (rispettivamente all’ingresso) K 0 impulso unitario concentrato in zero, con dati iniziali nulli. Per sfruttare appieno questa osservazione nella trattazione dei problemi concreti `e utile ricordare a questo punto una definizione e un risultato assai importanti. Definizione 2.45. Date due successioni X, Y si dice convoluzione discreta di X e Y la successione, indicata con X ∗ Y il cui termine generale `e (X ∗ Y )k =
k
Xh Yk−h .
h=0
Si noti che tale termine `e la Z-trasformata della soluzione dell’equazione omogenea o essere (Fk ≡ 0) con gli stessi dati iniziali. Si noti anche che tale soluzione pu` calcolata direttamente (in modo pi` u elementare) mediante le tecniche del paragrafo 2.2). 4 Precisamente, funzione di trasferimento del filtro risolutore dell’equazione alle differenze, dove, fissata l’equazione omogenea e i dati iniziali, il filtro risolutore corrisponde all’operazione lineare che ad ogni secondo membro associa la soluzione dell’equazione non omogenea. 3
56
2 Equazioni alle differenze lineari
Si verifica facilmente che X ∗ Y = Y ∗ X e (aX) ∗ Y = a (X ∗ Y ) per ogni coppia di successioni X, Y e per ogni costante a. Teorema 2.46. (Z-trasformata della convoluzione discreta) Se X e Y sono due successioni che ammettono Z-trasformata definita in un dominio di C non vuoto, allora la loro convoluzione discreta X∗Y ammette Z-trasformata (definita nell’intersezione dei rispettivi domini) e vale
Z {X ∗ Y } (z) = x (z) y (z)
Dunque, se H `e la soluzione di un’equazione alle differenze a due passi (lineare, a coefficienti costanti) corrispondente ai dati iniziali X1 = X0 = 0 e con secondo membro K 0 impulso unitario, allora la soluzione della stessa equazione corrispondente a X1 = X0 = 0 e dal generico secondo membro F , `e H ∗F . Pi` u in generale, per la stessa equazione, per ogni secondo membro F e per ogni scelta dei dati iniziali X0 , X1 non necessariamente nulli, se H `e la soluzione corrispondente all’impulso K 0 , allora la soluzione `e G∗F dove G = H + D e D dipende dai dati iniziali. Nell’Esempio 2.44 si pu` o osservare come la soluzione X sia esprimibile direttamente come convoluzione discreta tra il secondo membro {3k}k∈N e " −1 # −1 2 Z cio`e l’antitrasformata della funzione di trasferimenz − 2z + 1 to con una correzione dovuta ai dati iniziali. Ricordiamo che la funzione di trasferimento `e il reciproco del polinomio caratteristico associato al primo membro dell’equazione alle differenze. Si noti che la funzione di trasferimento dipende solo dal primo membro e si calcola una volta per tutte, e pu` o essere utilizzata per ogni secondo membro trasformabile ed ogni dato iniziale. Esempio 2.47. Sfruttando il teorema sulla convoluzione discreta, proviamo −1 che l’antitrasformata di z 2 − 2z + 1 ha termine generale Xk = k − 1 se k ≥ 1 e X0 = 0: Z −1
1 2 z − 2z + 1
1 z−1
Esempio 2.35 1 = z −1
Teorema 2.41 1 1 −1 −1 =Z u (z) ∗ Z u (z) = z z = Z −1
∗ Z −1
= Z −1 {Z {τ1 U }} ∗ Z −1 {Z {τ1 U }} = = τ1 U ∗ τ1 U
2.5 La Z-trasformata
Figura 2.9 Z −1
57
−1 z 2 − 2z + 1
il cui termine k-esimo (poich´e τ1 U = {0, 1, 1, 1, . . .}) `e 0 se k = 0 e k
(τ1 U )h (τ1 U )k−h = k − 1
se k ≥ 1.
h=0
Riassumendo, vale il seguente teorema. Teorema 2.48. Sia F una successione Z-trasformabile (cio`e esiste a > 0 tale che |Fk | ≤ ak per ogni k ∈ N). Allora l’unica soluzione di
Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = Fk X0 = X1 = · · · = Xn−1 = 0
`e data da X = T ∗ F ove T = Z −1
" −1 # . z n + an−1 z n−1 + · · · + a1 z + a0
Ricordiamo di seguito la definizione di medie mobili, spesso utilizzate nel trattamento statistico dei dati, ed osserviamo che esse hanno una semplice interpretazione in termini di convoluzione discreta. Definizione 2.49. Le medie mobili di ampiezza n di una successione X sono le medie aritmetiche di n termini consecutivi della successione: (M n [X])k =
Xk−n+1 + Xk−n+2 + · · · + Xk . n
Dunque: n
(M [X])k
n−1 1 1 = Xk−j = X ∗ (U − τn U ) . n n k j=0
Pu` o essere utile definire convenzionalmente anche i valori di Xk per k < 0, ad esempio con valore nullo: in tal modo (M n [X])k `e definita anche per 0 ≤ k < n.
58
2 Equazioni alle differenze lineari
Figura 2.10 Segnale
1 U − U(s−1) s
Una media mobile serve a filtrare fluttuazioni occasionali poco significative per rilevare le eventuali tendenze di lungo periodo. Nel caso di applicazioni economico-finanziarie la media mobile `e particolarmente indicata quando `e nota l’ampiezza del ciclo economico della grandezza considerata, pu` o ad esempio servire a “destagionalizzare” i dati registrati (operazione essenziale per stimare correttamente l’inflazione o gli acquisti di materie prime). Esempio 2.50. Consideriamo le quotazioni Xk di un titolo azionario in un periodo di 160 giorni (omettiamo per semplicit` a i giorni di chiusura della borsa, e supponiamo quotato il titolo in ciascuno dei 160 giorni). In Figura 2.11 riportiamo in un grafico i valori di Xk (Figura 2.11 a) ), l’andamento di M 10 [X] (Figura 2.11 b) ) e M 20 [X] (Figura 2.11 c) ). Le medie mobili sono uno degli strumenti dell’“analisi tecnica” dei titoli quotati, spesso utilizzate per tentare “estrapolazioni” dei valori futuri e tendenze sul breve periodo. Vale la pena di osservare che tali previsioni vanno considerate con grande cautela. Infatti, anche nel breve periodo, le stime dell’errore di una estrapolazione richiedono una certa regolarit` a5 , mentre le serie storiche disponibili sono estremamente irregolari: in questo senso l’esempio riportato ` per questo oltre ad essere un caso reale ha anche un comportamento tipico. E opportuno associare all’analisi tecnica l’analisi delle variabili economiche fondamentali che influenzano il titolo. I grafici dell’esempio visualizzano l’effetto regolarizzante della convoluzione. Come abbiamo illustrato negli esempi, l’uso delle tabelle `e molto utile sia per calcolare le Z-trasformate sia per calcolare l’antitrasformata. 5
Qui regolarit` a significa esistenza e continuit` a di un certo numero di derivate: ad esempio, Xk = f (k) con f ∈ C N (R). L’estrapolazione `e precisa solo per grandezze descritte da funzioni f analitiche, situazione molto diversa da quella dei valori quotati nei mercati azionari.
2.5 La Z-trasformata
59
Qualora non si abbiano a disposizione tabelle o queste non contengano le funzioni che si devono antitrasformare, si pu` o ricorrere ad una tecnica tipica dell’analisi complessa che qui ricordiamo senza dimostrazione. Teorema 2.51. (Formula di inversione della Z-trasformata) Sia f una Z-trasformata di una successione F , ed f sia derivabile in senso complesso in tutto C salvo un numero finito di punti z1 , z2 , . . . , zN tali che6 ∃ intero positivo pj : ∃ finito
per j = 1, . . . , N
lim (z − zj )
z→zj
pj
f (z) .
160
140
120
100
80
60
40
20
0
160
140
120
100
80
60
40
20
0
160
140
120
100
80
60
40
20
0
Figura 2.11 a) Grafico del prolungamento lineare a tratti; b) grafico della media mobile a 10 giorni; c) grafico della media mobile a 20 giorni 6
Le ipotesi su f bench´e tecniche ed apparentemente restrittive, sono verificate nella maggior parte dei problemi concreti.
60
2 Equazioni alle differenze lineari
Figura 2.12 Circuito elettrico dell’Esempio 2.52
Allora, detto Fk il termine generale della successione F , risulta Fk =
N
res z k−1 f (z) , zj
j=1
dove il residuo di f in zj , denotato con res(f, zj ), `e un numero calcolabile nel modo seguente: (a)
se pj = 1 allora res(f, zj ) = lim (z − zj ) f (z)
(b)
se pj > 1 allora res(f, zj ) = lim
z→zj
z→zj
1 (pj − 1)!
d dz
pj −1
pj
((z − zj )
f (z)) .
Vediamo alcuni esempi di applicazioni delle equazioni alle differenze alle reti elettriche. Esempio 2.52. Consideriamo il circuito elettrico della Figura 2.12 in cui sono presenti 2N resistori di resistenza R ed un generatore di differenza di potenziale V . Ci poniamo il problema di determinare l’intensit` a di corrente Ik nel k-esimo resistore orizzontale. La formulazione di questo problema (e di altri analoghi che includono combinazioni varie di resistori, condensatori e induttanze) pu` o essere effettuata mediante le due leggi di Kirchhoff : • in ciascun nodo la somma algebrica delle intensit` a `e nulla, • in ciascuna maglia la somma algebrica delle cadute di potenziale `e nulla. Ricordiamo che se I denota l’intensit` a di corrente, allora la caduta di potenziale attraverso un resistore di resistenza R `e uguale al prodotto IR. Applicando la seconda legge rispettivamente alla prima maglia, alla k-esima maglia, con 2 ≤ k ≤ N − 1, e alla N -esima maglia si ottiene: I1 R + (I1 − I2 ) R − V = 0 Ik R + (Ik − Ik+1 ) R − (Ik−1 − Ik ) R = 0 IN R + IN R + (IN − IN−1 ) R = 0 Dalla prima equazione I2 = 2I1 − V /R. Dalla seconda
2.5 La Z-trasformata
Ik+2 − 3Ik+1 + Ik = 0
61
1≤k≤N −2
che ammette la soluzione generale $ $ √ %k √ %k 3+ 5 3− 5 Ik = A +B 2 2
(2.17)
Tenendo conto dei dati iniziali I1 e I2 , si ottiene A=−
√ 1 √ 5 − 5 I1 R + 3 5 − 5 V 10R
√ 1 √ B= 5 + 5 I1 R + 3 5 + 5 V 10R
(2.18)
Tenendo conto dell’equazione relativa all’ultima maglia, sappiamo inoltre che IN = 13 IN−1 , relazione che consente di determinare per sostituzione IN . Esempio 2.53. Consideriamo il circuito elettrico della Figura 2.13 in cui sono presenti 2N resistori di resistenza R ed N generatori di differenza di potenziale Vk , 1 ≤ k ≤ N . Ci poniamo il problema di determinare l’intensit` a di corrente Ik nel k-esimo resistore orizzontale. Procedendo come nell’esempio precedente, otteniamo un’equazione lineare non omogenea, a due passi: Ik R + (Ik − Ik+1 ) R − (Ik−1 − Ik ) R = Vk con dati iniziali I1 (da determinare successivamente) e I2 = 2I1 − V1 /R .
Figura 2.13 Circuito elettrico dell’Esempio 2.53
Per la genericit`a del termine noto `e opportuno ricorrere al metodo della Ztrasformata ponendo i (z) = Z {Ik }, v (z) = Z {Vk }:
1 z 2 − 3z + 1 i (z) = I1 z 2 + (I2 − 3I1 ) z + v (z) . R
Chiamando Jk il secondo membro della (2.17) con le scelte (2.18) per A e B nell’esempio precedente, e per k ≥ 2 ,
62
2 Equazioni alle differenze lineari
Tk = Z
−1
v (z) 2 R (z − 3z + 1)
=
√1 5R
V ∗
√ k−1 3+ 5 2
−
√ k−1 3− 5 2
k
otteniamo Ik = Jk + (V ∗ T )k . Osservazione 2.54. Un metodo per risolvere le equazioni alle differenze sostanzialmente identico a quello della Z-trasformata consiste nell’associare ad ogni successione X la sua funzione generatrice: +∞ 1 Xk z k = x . z k=0
I due metodi sono ovviamente equivalenti. Abbiamo scelto di presentare la Z-trasformata perch´e `e maggiormente utilizzata nel trattamento dei segnali ed altre applicazioni dell’ingegneria. Esercizio 2.19. Risolvere il problema Xk+2 − Xk+1 − 2Xk = k X0 = 0
k∈N
X1 = 1
Esercizio 2.20. Risolvere il problema seguente (con un segnale impulsivo al secondo membro): k∈N Xk+2 − 5Xk+1 + 6Xk = Kk0 X0 = X1 = 0 Esercizio 2.21. Risolvere il problema seguente (con un segnale di Kronecker al secondo membro): k∈N Xk+1 − 2Xk = 3Kk4 X0 = 1 Esercizio 2.22. Risolvere l’equazione 2Xk = 2 + 32
k−1
(k − s − 1) Xs , k ∈ N .
s=0
Esercizio 2.23. Calcolare la Z-trasformata di Xk = k3 , k ∈ N, senza utilizzare le tabelle, deducendola da quella di Yk = k (k + 1) (k + 2) .
2.6 Equazioni lineari a coefficienti variabili In questo paragrafo esaminiamo alcuni semplici esempi di equazioni lineari alle differenze a coefficienti non costanti. Definizione 2.55. Assegnata una successione A = {Ak }, si dice equazione alle differenze lineare, del primo ordine, a coefficienti variabili, omogenea, l’insieme di equazioni Xk+1 = Ak Xk
∀k ∈ N .
(2.19)
2.6 Equazioni lineari a coefficienti variabili
63
Teorema 2.56. Per ogni dato iniziale X0 l’unica soluzione della (2.19) `e: $k−1 % + Xk = As X0 . (2.20) s=0
,h
Qui e nel seguito il simbolo s=0 As denota il prodotto dei numeri A0 , A1 , . . . , Ah . Omettiamo la prova del teorema poich´e `e del tutto analoga a quella del Teorema 2.2. Definizione 2.57. Assegnate due successioni A e B, si dice equazione alle differenze lineare, del primo ordine, a coefficienti variabili, non omogenea, l’insieme di equazioni
∀k ∈ N
Xk+1 = Ak Xk + Bk
(2.21)
Teorema 2.58. Per ogni dato iniziale X0 la (2.21) ha un’unica soluzione data da:
Xk = X0
k−1 ,
As +
s=0
Prova Poniamo G0 = 1 e Gk =
k−1
k−1
Br
r=0
k−1 ,
As
(2.22)
s=r+1
As se k > 0, e dividiamo entrambi i membri
s=0
della (2.21) per Gk+1 : Xk Bk Xk+1 = + . Gk+1 Gk Gk+1
(2.23)
Se, inoltre, poniamo Zk =
Xk Gk
βk =
allora la (2.23) si riscrive come Zk+1 = Zk + βk Zk = Z0 +
k−1
r=0
β r = X0 +
Bk Gk+1 la cui soluzione `e data da k−1
r=0
Br . Gr+1
A questo punto, ricordando la sostituzione effettuata, otteniamo per la propriet` a distributiva k−1 k−1 k−1 k−1 k−1
Br
Br As As + As X0 + = X0 Xk = Gk Zk = Gr+1 Gr+1 s=0 r=0 s=0 s=0 r=0
64
2 Equazioni alle differenze lineari
da cui si ottiene la (2.22) grazie all’identit` a k−1 k−1 k−1 k−1
Br
As Br As . = Gr+1 s=0 r=0 r=0 s=r+1
I passaggi della dimostrazione sono corretti se Ak = 0 , ∀k. Tuttavia il risultato continua a valere anche se qualche Ak si annulla: infatti ∃k ∈ N : Ak = 0
⇒
Xk+1 = Bk ,
∀k > k.
Osservazione 2.59. Nel caso di una equazione alle differenze del primo ordine a coefficienti non costanti, omogenea, `e opportuno notare che il numero di operazioni necessarie al calcolo del termine Xk sia con la (2.19) sia con la (2.20) `e pari a k. Invece, se si considera una equazione non omogenea, mentre il calcolo di Xk con la (2.21) richiede 2k operazioni, l’impiego della (2.22) ne richiede una quantit` a dell’ordine di k 2 : dunque, la formula esplicita per Xk (in dipendenza da k e dalla condizione iniziale X0 ) d` a informazioni sulla soluzione ma non garantisce alcun vantaggio computazionale rispetto all’impiego della formula ricorsiva nel calcolo dei valori Xk . Osservazione 2.60. Nel caso particolare in cui Ak = 1 per ogni k, cio`e Xk+1 = Xk + Bk , la (2.22) si semplifica come segue: Xk = X0 +
k−1
Br .
r=0
Notiamo per inciso che il modello ad incrementi non costanti con Ak = 1 `e tipico della successione delle somme parziali di una serie. Infatti, data una successione X = {X k } definiamo la successione S delle somme parziali Sk +∞ associate alla serie n=0 Xn la successione il cui termine generale si ottiene dal precedente aggiungendo il termine generale di X, cio`e Sk =
k
Xn .
n=0
Con tali notazioni vale la relazione ricorsiva: Sk+1 = Sk + Xk+1 . Esempio 2.61. Il numero dei triangoli equilateri di lato pari a 1/k che si ricavano da un triangolo di lato unitario suddividendo ciascun lato in k parti uguali e unendo tali punti mediante segmenti paralleli ai lati del triangolo soddisfa la relazione (si veda l’Esercizio 1.12) Xk+1 = Xk + 2k + 1 X1 = 1
2.6 Equazioni lineari a coefficienti variabili
65
Per la (2.22), il numero dei triangolini cercato si ottiene ricordando la somma di una progressione aritmetica: Xk = 1 +
k−1
(2r + 1) = 1 + k − 1 + 2
r=1
k (k − 1) = k2 . 2
Vediamo ora come si possono estendere le considerazioni ed i risultati precedenti alle equazioni a pi` u passi. Definizione 2.62. Date n successioni A0 , A1 , . . . , An−1 , si dice equazione lineare di ordine n, omogenea, l’equazione Xk+n + An−1 Xk+n−1 + · · · + A1k Xk+1 + A0k Xk = 0 k
(2.24)
con A0k = 0, ∀k ∈ N . I teoremi che seguono forniscono una descrizione dell’insieme delle soluzioni di (2.24). ` immediato verificare, calcolando iterativamente i valori di Xk , che per ogni E n-upla di dati iniziali X0 , X1 , . . . , Xn−1 , esiste un’unica soluzione di (2.24). Con considerazioni analoghe al caso dei coefficienti costanti, si prova il seguente teorema. Teorema 2.63. (Spazio delle soluzioni) Se A0j = 0 per j = 0, . . . , n − 1, allora l’insieme delle soluzioni dell’equazione omogenea (2.24) `e uno spazio vettoriale di dimensione n. Definizione 2.64. Date n successioni7 X 1 , X 2 , . . . , X n , si dice matrice di Casorati di indice k la matrice n × n ⎤ ⎡ Xk2 . . . Xkn Xk1 ⎥ ⎢ ⎥ ⎢ X1 2 n ⎢ k+1 Xk+1 . . . Xk+1 ⎥ ⎢ ⎥. Wk = ⎢ . ⎥ . . .. ... ⎢ .. ⎥ . . ⎦ ⎣ 1 2 n Xk+n−1 Xk+n−1 . . . Xk+n−1
Il determinante det Wk si dice Casoratiano. Teorema 2.65. Date n soluzioni X 1 , . . . , X n dell’equazione omogenea (2.24), le seguenti affermazioni sono equivalenti: i) le successioni X 1 , . . . , X n sono linearmente dipendenti; ii) esiste un k ∈ N tale che det Wk = 0; iii) per ogni k ∈ N si ha det Wk = 0. 7
Il lettore ponga attenzione alla posizione degli indici: il numero X1 `e parte del dato iniziale, la successione X 1 `e una soluzione, X11 `e il termine con indice 1 di tale successione.
66
2 Equazioni alle differenze lineari
Prova. Se vale la i) allora esiste un vettore c di costanti non tutte nulle tale che Wk c = 0: abbiamo cos`ı un sistema lineare omogeneo di n equazioni algebriche in n incognite che ammette una soluzione non banale e quindi, per il teorema di Cramer, deve essere det Wk = 0. Se k0 `e tale che det Wk0 = 0, allora esiste un vettore c di costanti non tutte nulle tale che Wk0 c = 0. Posto allora Xk = c1 Xk1 + c2Xk2 + · · · + cnXkn , ∀k, possiamo affermare che Xk `e soluzione dell’equazione omogenea (vedi il Teorema 2.63) con condizione a segue iniziale Xk0 = · · · = Xk0 +n−1 = 0. Dal teorema di esistenza ed unicit` allora che Xk = 0 per ogni k e quindi le successioni X 1 , . . . , X n sono linearmente dipendenti.
Teorema 2.66. Se X 1 , . . . , X n sono soluzioni linearmente indipendenti dell’equazione omogenea (2.24), allora ogni soluzione di tale equazione `e combinazione lineare di tali soluzioni. Il caso non omogeneo della (2.24) si tratta nel solito modo: addizionando ad una soluzione particolare le soluzioni dell’equazione omogenea. Esercizio 2.24. Posto
+∞
Ik =
e−x xk dx
k∈N
0
determinare una relazione ricorsiva fra Ik e Ik−1 . Sfruttare il Teorema 2.58 per ricavare un’espressione esplicita di Ik . Esercizio 2.25. Risolvere le seguenti equazioni (Suggerimento: congetturare l’espressione di Xk calcolando alcune iterazioni, poi verificarla per induzione): k Xk k+1
(1)
Xk+1 =
(3)
Xk+1 = e3k Xk
3k + 1 Xk 3k + 7
(2)
Xk+1 =
(4)
Xk+1 = ecos 2k Xk
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare Nel caso delle equazioni alle differenze non lineari non sono disponibili tecniche generali per esplicitare le soluzioni. Tuttavia in alcuni casi particolari `e possibile effettuare un cambio di variabile per trasformare le equazioni non lineari in equazioni lineari, che sono risolubili mediante le tecniche viste nei paragrafi precedenti; quindi, effettuando il cambio di variabile inverso si ottiene la soluzione in forma chiusa del problema di partenza. In questo paragrafo vedremo che questo metodo si pu` o sempre applicare al caso delle equazioni alle differenze del primo ordine in forma normale quando il secondo membro `e una funzione lineare fratta dell’incognita. Nel paragrafo 3.10, vedremo altre tecniche per risolvere equazioni non lineari.
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare
67
Esempio 2.67. Consideriamo l’equazione alle differenze Xk+1 = −
1 . Xk
Notiamo subito che, diversamente dal caso lineare, non `e neppure evidente che esista la soluzione: infatti, se per qualche k, Xk = 0, allora `e impossibile procedere con le iterazioni. Comunque, quando esiste la soluzione, l’esplicitazione di Xk `e immediata se si osserva che, posto f (x) = −1/x risulta f (f (x)) = x, dunque ∀k ∈ N
Xk+2 = Xk
e la successione risulta X0 , −X0−1 , X0 , −X0−1 , X0 , . . . . Esempio 2.68. Consideriamo l’equazione alle differenze Xk+1 =
Xk . 1 + Xk
(2.25)
Anche in questo caso la soluzione pu` o non esistere. Supponendo di partire da un valore X0 per cui la soluzione esiste, procediamo formalmente e poniamo Yk = 1/Xk per ogni k ottenendo, per sostituzione, 1 Yk+1
=
1/Yk 1 + 1/Yk
cio`e
Yk+1 = Yk + 1 .
Tale problema `e lineare affine e si risolve con la tecnica vista nel paragrafo 2.1: Yk = Y0 + k da cui Xk =
X0 1 1 1 = = . = −1 Yk Y0 + k 1 + kX0 X0 + k
(2.26)
Osserviamo che la sostituzione effettuata ha senso solo se Xk = 0 per ogni k e in particolare X0 = 0. Tuttavia, la formula ottenuta d` a la soluzione Xk (lo si verifichi per sostituzione) anche se X0 = 0 ! La formula vale anche per il calcolo delle sole iterazioni sensate nel caso in cui non esiste la soluzione. Ad esempio, se X0 = −1 allora la formula si arresta prima del calcolo di X1 = −1/0; se invece X0 = −1/2, allora X1 = −1 ma X2 non `e calcolabile X2 = −1/0, e cos`ı via. Comunque, se X0 > 0 allora la soluzione Xk di (2.25) `e ben definita e positiva per ogni k, dunque in tale caso vale Xk =
X0 1 + kX0
∀k ∈ N .
Questa conclusione resta vera per tutti gli X0 < 0 che non conducono a −1 in un numero finito di passi. Al fine di determinare i valori iniziali proibiti possiamo invertire l’iterazione
68
2 Equazioni alle differenze lineari
della funzione f (x) = x/ (1 + x), cio`e iterare f −1 (z) = z/ (1 − z) e dunque calcolare i valori Zk tali che ⎧ Zk ⎨Z k+1 = 1 − Zk (2.27) ⎩ Z0 = −1 Si noti che anche questa `e un’equazione non lineare, ma, come vedremo tra poco, la sua soluzione si pu` o esplicitare e si deduce che i valori vietati per il dato X0 sono i valori −1/k con k = 1, 2, . . . come si pu`o verificare per induzione. Notiamo che sia (2.25) che (2.27) hanno secondi membri lineari fratti. Definizione 2.69. Una funzione lineare fratta `e una funzione cos`ı definita f : R \ {−d/c} → R
f (x) =
ax + b cx + d
dove (c, d) = (0, 0) .
Definizione 2.70. Una trasformazione di Moebius `e una funzione cos`ı definita: f : C\ {−d/c} → C
f (z) =
az + b cz + d
dove ad − bc = 0.
Osservazione 2.71. Tutte le trasformazioni di Moebius sono composizioni di traslazioni, omotetie di centro l’origine ed inversioni z → 1/z. Inoltre, tali trasformazioni mandano ciascun cerchio o retta del piano complesso in un cerchio o in una retta del piano complesso. z−i definita in C\{−i} trasforma l’asse z+i ! reale {x + iy : y = 0} nella circonferenza unitaria x + iy : x2 + y2 = 1 . Esempio 2.72. La funzione f(z) =
Consideriamo ora in generale l’equazione ricorsiva
Xk+1 =
aXk + b cXk + d
a, b, c, d ∈ R
(2.28)
(I) Se c = 0 oppure ad − bc = 0, allora (2.28) `e un’equazione lineare affine e la espressione esplicita di Xk `e data dal Teorema 2.5. (II) Se c = 0 e ad − bc = 0, l’equazione (2.28) `e non lineare, tuttavia essa `e del tipo Xk+1 = f (Xk ) con f trasformazione di Moebius ed `e possibile, mediante un opportuno cambio di variabile incognita (di cui quello dell’Esempio 2.68 era un caso particolare) ricondursi ad una equazione lineare, e dunque
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare
69
esplicitare i valori di Xk . Poniamo α=
aα + b cα + d
(2.29)
cio`e cerchiamo gli α che scelti come dati iniziali X0 generano una soluzione costante Xk = α, ∀k. Esplicitando (ricordiamo che c = 0) cα + (d − a) α − b = 0
⇒
2
α1,2 =
a−d±
-
2
(a − d) + 4bc 2c
.
Osserviamo che ad − bc = 0 assicura α1,2 = −d/c e α1,2 = a/c (in effetti x = −d/c e y = a/c sono le equazioni degli asintoti dell’iperbole di equazione y = (ax + b)/(cx + d) ). Se X0 = α1 , allora Xk = α1 per ogni k; se X0 = α2 , allora Xk = α2 per ogni k. Se X0 = α1 e X0 = α2 , allora scelta una delle due radici, poniamo
Yk =
1 Xk − α
(2.30)
1 Yk
(2.31)
e corrispondentemente
Xk = α +
Sostituendo (2.31) in (2.28)
α+
1 Yk+1
a +b Yk = c cα + +d Yk aα +
1 (aα + b) Yk + a = −α + = Yk+1 (cα + d) Yk + c a − αc = (cα + d) Yk + c Yk+1 =
per la (2.29)
cα + d c Yk + . a − αc a − αc
(2.32)
70
2 Equazioni alle differenze lineari
Riassumendo, se c = 0 e ad − bc = 0, allora: (i) se
cα + d a−d = 1, allora α1 = α2 = e, per il Teorema 2.5, a − αc 2c Yk =
1 c +k X0 − α a − αc
e, per tutti i k per cui Xk `e definito
1 Xk = α + = α+ Yk
1 c +k X0 − α a − αc
−1
In particolare, se Xk `e definito per ogni k, allora da c = 0 segue l’esistenza del limite finito lim Xk = α. k
cα + d = 1 (si ricordi che nelle nostre ipotesi `e anche diverso da 0), a − αc allora α1 = α2 , l’equilibrio di (2.32) `e, se α = α1 , (ii) se
γ = −-
c 2
(a − d) + 4bc
= 0
(2.33)
e dal Teorema 2.5 e dalla (2.31), segue: Yk = (Y0 − γ)
$ Xk = α +
cα + d a − αc
1 −γ X0 − α
k +γ
cα + d a − αc
(2.34)
%−1
k +γ
(2.35)
2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare
71
Osserviamo che
se
cα + d a − αc > 1
allora esiste
lim Xk = α1
se
cα + d a − αc < 1
allora esiste
lim Xk = α1 +
k
k
1 = α2 γ
cα + d = 1 si possono avere comportamenti periodici o molto complicati Se a − αc a seconda che l’argomento sia o meno un sottomultiplo di 2π. 2
Si noti che se a, b, c, d ∈ R ma α ∈ / R (cio`e Δ = (a − d) + 4bc < 0) allora necessariamente cα + d a − αc = 1; infatti
√ cα + d a + d ± i −Δ = a − αc a + d ∓ i√−Δ = 1.
Tutto ci` o `e in accordo con il fatto che se a, b, c, d ∈ R ma α ∈ / R allora Xk non pu` o ammettere limite, n´e finito, n´e infinito (infatti, Xk `e sempre reale, dunque non pu` o convergere n´e ad α1 n´e ad α2 ). Osservazione 2.73. Si noti che in (2.31) e (2.33)si era scelta α1 , e dunque 2 α1 + 1/γ = α2 . Scegliendo α2 si otterrebbe γ = c/ (a − d) + 4bc e nel caso cα + d Xk = α2 + 1/γ = α1 . a − αc < 1 si avrebbe lim k Osservazione 2.74. Per un metodo diverso di esplicitazione di Xk si veda anche pi` u avanti l’Esercizio 2.27. Informazioni qualitative sul comportamento asintotico di Xk possono essere ottenute in modo pi` u semplice con le tecniche generali del Capitolo 3 (vedi Esercizio 3.30). Osservazione 2.75. Per determinare i dati iniziali X0 che generano l’intera successione iterando (2.28) occorre determinare i valori di X0 che non conducono a −d/c in un numero finito di passi, cio`e occorre escludere tutti i valori Zk tali che ⎧ ⎨ Zk+1 = f −1 (Zk ) ⎩ Z0 = − d c dove f (x) = (ax + b) / (cx + d); se si pone z = (ax + b) / (cx + d), si ricava x = f −1 (z) = (b − dz) / (cz − a)
72
2 Equazioni alle differenze lineari
Si noti che se a + d = 0 (e quindi cZ0 = a), allora l’unico valore vietato per X0 `e −d/c. Infatti, in tal caso, X0 = −d/c implica Xk+1 =
aXk + b a d = = − cXk − a c c
∀k.
Esercizio 2.26. Si definisce sezione aurea di un segmento, la pi` u lunga delle due parti ottenute dividendo in due il segmento dato in modo tale che il quadrato della lunghezza di tale parte sia uguale al prodotto delle lunghezze di tutto il segmento per quella della parte rimanente. Calcolare la lunghezza di tale segmento riferita al segmento intero. Esercizio 2.27. Osserviamo che la parte aurea di un segmento di lunghezza unitaria ha lunghezza x pari alla soluzione positiva di x=
1 1+x
e “sostituendo il valore di x nel secondo membro” 1
x= 1+
1 1+x
.
Iterando la procedura (ricavare x dalla prima equazione e sostituirlo nell’ultima equazione trovata): 1 x= 1 1+ 1 1+ 1 +··· Il secondo membro viene anche detto frazione continua. Tale scrittura complicata (e vaga...) pu` o essere precisata costruendo una successione Xk tale che 1 Xk+1 = 1 + Xk e andando a vedere se, per opportuni dati iniziali X0 , Xk approssima x. (1) Determinare la forma esplicita di Xk . (2) Mostrare che Xk tende alla parte aurea x per ogni dato X0 = −1. Esercizio 2.28. Risolvere l’equazione Xk+1 Xk + 2Xk+1 + 4Xk + 9 = 0.
2.8 La Trasformata Discreta di Fourier La trasformata di Fourier discreta `e uno strumento di grande utilit` a per trattare le successioni periodiche. Definizione 2.76. Una successione X si dice periodica di periodo N , con N ∈ N, se risulta Xk = Xk+N per ogni k in N.
2.8 La Trasformata Discreta di Fourier
73
Osserviamo che una successione X periodica di periodo N `e completamente descritta da un numero finito di termini consecutivi, cio`e dal vettore ad N 'T & componenti X = X0 X1 · · · XN−1 . ! Esempio 2.77. Le radici N -esime complesse dell’unit`a z ∈ C : z N = 1 sono esattamente N e sono espresse da e2πki/N con k = 0, 1, . . . , N − 1. Dunque, posto ω = e2πi/N , la successione X definita da Xk = ωk `e N -periodica e percorre una traiettoria costituita esattamente da N punti sulla circonferenza unitaria che rappresentano i vertici di un poligono regolare di N lati centrato nell’origine. Osservazione 2.78. Se w `e una radice N -esima complessa dell’unit`a (cio`e w ∈ C e w N = 1), allora N−1 N se w = 1 wk = 0 se w = 1 . k=0 Infatti, il caso w = 1 `e banale e gli altri seguono da 0 = w N − 1 = (w − 1) w N−1 + w N−2 + · · · + w + 1 . Se f `e una funzione reale di variabile reale, continua e con derivata continua8 , periodica di periodo 2π, allora, per opportuni numeri cn , vale f (x) = cn einx . (2.36) n∈Z
Il secondo membro dell’uguaglianza precedente `e detto sviluppo in serie di Fourier della funzione f. I coefficienti di Fourier cn sono calcolati mediante . 2π 1 cn = f (t) e−int dt . (2.37) 2π 0 Supponiamo ora che N sia un numero pari (in realt` a la maggior convenienza dal punto di vista dei calcoli numerici si ha quando N `e una potenza di 2: cio`e N = 2p , p ∈ N\ {0}), ed effettuiamo un calcolo numerico approssimato dell’integrale in (2.37) che richieda la conoscenza dei valori di f solo in N punti equidistanti: utilizziamo il metodo delle tangenti (o dei trapezi)9 tenendo conto che f (0) = f (2π) 8
In realt` a `e sufficiente che f sia 2π periodica, continua e che sia possibile dividere [0, 2π] in un numero finito di intervalli Ik = [ak , bk ] tali che f abbia derivata continua (ak ) e f− (bk ) per ogni k. in ciascun Ik ed esistano finite f+ 9 L’errore effettuato calcolando l’integrale di una funzione f su un intervallo chiuso e limitato col metodo delle tangenti `e piccolo per N grande e si pu` o stimare: 2π2 max |f | , inoltre se f `e continua, allora |cn − Cn | ≤ N 3 π max |f |. se f `e continua, allora |cn − Cn | ≤ 3N 2
74
2 Equazioni alle differenze lineari
N−1 N−1 −kn 1 2π 1 f (2kπ/N ) e−in2kπ/N = f (2kπ/N ) e2πi/N 2π N N k=0 k=0 (2.38) Per rendere meno pesante la notazione poniamo
Cn =
ω = e2πi/N = cos
yk = f (2kπ/N )
2π 2π + i sin . N N
Poich´e ω `e una radice N -esima di 1 e le sue potenze ωk , k = 0, 1, . . . N −1, sono tutte le radici N -esime complesse dell’unit`a (si veda Esempio 2.77), possiamo scrivere N−1 1 Cn = yk ω−kn . (2.39) N k=0
Diamo ora una (utilissima) interpretazione dei coefficienti di Fourier approssimati Cn . Cerchiamo un polinomio trigonometrico p (una somma finita anzich´e una serie di termini oscillanti come in (2.36)) che interpoli f nel senso seguente: N/2 −1
p (x) =
γh eihx , p (2kπ/N ) = f (2kπ/N ) = yk , k = 0, 1, . . ., N − 1 .
h=−N/2
(2.40) Le condizioni precedenti equivalgono al seguente sistema lineare algebrico in N equazioni ed altrettante incognite γh
N/2−1
γh eih(2kπ/N) = yk
k = 0, 1, . . ., N − 1
h=−N/2
che si pu` o riscrivere nella forma:
N/2−1
γh ωhk = yk
k = 0, 1, . . . , N − 1 .
(2.41)
h=−N/2
Cambiamo incognite affinch´e l’indice delle sommatorie percorra l’insieme 0, 1, . . ., N − 1, anzich´e −N/2, −N/2 + 1, . . . , N/2 − 1, ponendo se 0 ≤ h < N/2 , Yh = γh−N se N/2 ≤ h < N . 'T & definisce implicitamente Osserviamo che il vettore Y = Y0 Y1 · · · YN−1 una successione Y periodica di periodo N . ! Grazie alla N periodicit` a della successione ωk , vale ωhk = ω(h−N)k , dunque il sistema (2.41) diventa Yh = γh
N−1 h=0
Yh ωhk = yk
k = 0, 1, . . . N − 1
(2.42)
2.8 La Trasformata Discreta di Fourier
75
e la matrice N × N dei suoi coefficienti ωhk = Fh k ⎡
1
1
1
1
⎢ ⎢1 ω ω3 ω2 ⎢ ⎢ 2 ω4 ω6 F = ⎢1 ω ⎢. . .. . ⎢. . .. . ⎣. . N−1 2(N−1) 3(N−1) 1ω ω ω
⎤
···
1
···
ωN−1
··· .. .
ω2(N−1) .. .
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
(2.43)
· · · ω(N−1)(N−1)
`e una matrice simmetrica di Vandermonde (vedi Esercizio 2.42): le sue righe (e le sue colonne) sono le potenze di esponenti 0, 1, . . . , N − 1 dei numeri distinti 1, ω, ω2 , . . . , ωN−1 . Dunque det F = 0 ed F `e invertibile. La sua matrice inversa pu` o essere espressa facilmente grazie all’Osservazione 2.78: scelto w = ωk , si ottiene N−1
ω
hk
=
h=0
N se k = 0 o k `e multiplo intero di N 0
altrimenti
Poich´e (ωk ) = ω−k , si deduce N−1 N−1 F F nm = ωnh ω−hm = ωh(n−m) = h=0
h=0
cio`e F F = N IN . Dunque F−1 = sistema (2.42): Yn =
N se n = m 0
altrimenti
1 F e possiamo risolvere esplicitamente il N
N−1 1 yk ω−kn . N
(2.44)
k=0
Confrontando (2.38) con (2.42) scopriamo che i coefficienti di Fourier approssimati con la regola dei trapezi coincidono con i coefficienti del polinomio trigonometrico interpolante nei punti Xk = 2kπ/N definito da (2.40). Se con'T 'T & & e Y = Y0 Y1 · · · YN−1 , allora sideriamo i vettori y = y0 y1 · · · yN−1 i sistemi (2.42) e (2.44), con riferimento alla (2.43), si scrivono nella forma y = FY
Y = F−1 y =
1 Fy . N
Inoltre, il vettore Y `e detto Trasformata Discreta di Fourier di y (spesso abbreviata in DFT, dall’inglese Discrete Fourier Transform) e y `e detta
76
2 Equazioni alle differenze lineari
trasformata discreta di Fourier inversa di Y: Y = DFT y ,
−1
y = (DFT)
Y.
1 Fe N per la matrice F (dove F
Dunque, la trasformazione consiste nella moltiplicazione per la matrice
l’antitrasformazione consiste nella moltiplicazione10 `e definita in (2.43)). In analogia con quanto detto per Y, il vettore y definisce implicitamente una successione y periodica di periodo N : y = {yh }h∈N
tale che
∀h ∈ N .
yh+N = yh
Esempio 2.79. Consideriamo la funzione 2π periodica definita mediante f (x) = |x| se |x| < π e prolungata periodicamente a tutto R. Allora in [0, 2π] abbiamo f (x) = x se 0 ≤ x ≤ π e f (x) = 2π − x se π ≤ x ≤ 2π. Scegliamo N = 8, Xk = kπ/4 , yk = f (Xk ) con k = 0, . . . , 7. Otteniamo ω = eiπ/4 , (
3 π π π π 3 y= 0 ππ π 4 2 4 4 2 4
)T
e la trasformata di Fourier discreta Y = DFT y si ottiene da (2.44): √ √ √ √ )T 2 2 2 2 −2 + −2 − π −2 − −2 + . Y= 0 π0 π π0 16 16 2 16 16 (
'T 'T & & Inoltre, grazie alla corrispondenza Y0 Y1 · · · Y7 = γ−4 γ−3 · · · γ3 otteniamo il polinomio trigonometrico che interpola f su nove punti equidistanti in [0, 2π]:
p (x) =
10
√ π π √ π 2 + 2 cos x + 2 − 2 cos 3x . − 2 8 8
Nelle applicazioni si incontra spesso una variante della definizione, che ` e sostanzialmente equivalente: 1 trasformazione DFT effettuata moltiplicando per √ F ed antitrasformazione N 1 ottenuta moltiplicando per √ F. N
2.8 La Trasformata Discreta di Fourier
77
p
p
2p
Figura 2.14 Polinomio trigonometrico che interpola la funzione f (Esempio 2.79)
Consideriamo in generale il polinomio 1 1 yk z k = y0 + y1 z + y2 z 2 + · · · + y7 z 7 8 8 7
q (z) =
z∈C.
k=0
a Il calcolo effettivo di ciascun elemento Yn di Y = DFT y ha la complessit` computazionale11 del calcolo di q (polinomio di grado N − 1 rispetto a z) nell’argomento ω = e2πi/N . Proviamo infatti a calcolare Yn con l’algoritmo di Ruffini-Horner nel caso dell’Esempio 2.79: i) q = yN−1 ; ii) per k = 6, 5, 4, . . ., 1, 0; iii) q = qz + yk . Nei tre precedenti passi per il programma di calcolo la notazione a = b significa (secondo la convenzione usuale nei listati dei programmi di calcolo) ad a si assegni il valore b. Dunque, nel caso del polinomio di grado 8 l’algoritmo richiede 7 addizioni e 7 moltiplicazioni. In generale, esso richiede tante addizioni e moltiplicazioni quanto `e il grado del polinomio (cio`e N − 1). Inoltre, le componenti di Y sono N , dunque il numero totale di moltiplicazioni necessarie per calcolare la DFT `e dell’ordine di N 2 . Tale numero pu` o essere proibitivo se N `e grande. Nel 1965 J.W. Cooley e J.W. Tucker idearono un algoritmo pi` u rapido, che riduce il numero di moltiplicazioni richieste: se N = 2p , allora sono richieste N log2 N = N p moltiplicazioni, una notevole riduzione rispetto ad N 2 (scegliamo ad esempio N = 212 = 4096 , allora p = 12 , N 2 = 16.777.216 mentre N p = 49.152). 11
Numero di operazioni elementari da eseguire.
78
2 Equazioni alle differenze lineari
L’algoritmo di Cooley & Tuckey `e chiamato FFT (dall’inglese Fast Fourier Transform). Prima di entrare nei dettagli cerchiamo di comprendere l’idea che sta alla base della FFT. Riferendoci al problema di calcolare la DFT, supponiamo di dover calcolare N valori di un polinomio di grado N − 1: q (z) =
N 1 1 yk z k = y0 + y1 z + y2 z 2 + · · · + yN−1 z N−1 N N
z∈C.
k=0
Si pu` o sfruttare il fatto che z = ω−n = e−2πin/N ed N `e pari, anzi N = 2p . Infatti, in tali ipotesi i numeri complessi in cui si vuole calcolare q si dividono a coppie di numeri opposti che hanno lo stesso quadrato: zn = e−2πin/N zn = − zn+N/2
2 zn2 = zn+N/2 .
Nel caso dell’Esempio 2.79 (p = 3, N = 8) q pu` o essere scritto separando i termini di grado pari e dispari: q (z) = qp z 2 + qd z 2 = = y0 + y2 z 2 + y4 z 4 + y6 z 6 + z y1 + y3 z 2 + y5 z 4 + y7 z 6 Per calcolare q (z0 ) e q (z4 ), posto u = z02 = z42 calcoliamo qp e qd con 3 +3 = 6 moltiplicazioni, e poi q (z0 ) = qp (u) + qd (u) q (z4 ) = qp (u) − qd (u) in tutto 7 moltiplicazioni. Poich´e le coppie di punti sono 4 si hanno in tutto 4 · 7 = 28 anzich´e le 8 · 7 = 56 moltiplicazioni richieste da Ruffini-Horner. a di essere, a due Inoltre, poich´e N = 2p anche i quadrati verificano la propriet` a due, opposti e con lo stesso quadrato, dunque i polinomi qp e qd possono essere calcolati negli zk con la stessa tecnica, e cos`ı via. Questo spiega l’efficacia numerica dell’algoritmo DFT. Algoritmo Fast Fourier Transform (FFT) Consideriamo due vettori y e Y ad N componenti, con Y = DFT y, cio`e: yk =
N−1
Yn ωkn
k = 0, 1, . . . , N − 1
n=0
(2.45) 1 N−1 Yn = yk ω−kn n = 0, 1, . . . , N − 1 N k=0
2.8 La Trasformata Discreta di Fourier
79
Supponiamo che N sia decomponibile in un prodotto di interi: N = p1 p2 con p1 = 1 = p2 . Allora gli indici n e k possono essere scritti nella forma: n = n1 p2 + n0 n0 = 0, 1, . . . , p2 − 1 n1 = 0, 1, . . . , p1 − 1 k = k 1 p1 + k 0
k0 = 0, 1, . . . , p1 − 1
k1 = 0, 1, . . ., p2 − 1
Tenendo conto dell’identit` a ω−N = 1 si deduce ω−n(k1p1 +k0 ) = ω−nk0 ω−(n1 p2 +n0 )k1 p1 = ω−nk0 ω−n0 k1 p1 e sostituendo in (2.45) p2 −1 p1 −1 1 yk1 p1 +k0 ω−n(k1 p1 +k0 ) = N k1 =0 k0 =0 $ p −1 % p2 −1 1 1 −nk0 1 −n0 k1 p1 = ω yk1 p1 +k0 ω = p1 p2
Yn =
k0 =0
=
(2.46)
k1 =0
p2 −1 1 −nk0 ω yk0 ,n0 p1 k0 =1
1 −1 1 p yk p +k ω−n0 k1 p1 . p2 k1 =0 1 1 0 Nella terminologia della computer science l’effettuazione di una moltiplicazione e una addizione corrisponde ad un flops12. Il calcolo diretto di Y a partire da y utilizzando la seconda delle (2.45) richiederebbe N 2 flops per ogni componente. Osserviamo che, nell’ipotesi N = p1 p2 , la (2.46) ha ridotto il numero di flops: nel calcolo di y si compiono p2 operazioni, e nella sostituzione in (2.46) se ne effettuano altre p1 . In conclusione, per calcolare ciascun Yn , n = 0, . . . , N − 1, si effettuano N (p1 + p2 ) flops. Se N si fattorizza ulteriormente N = p1 p2 · · · ps , allora il numero di flops si riduce a N (p1 + p2 + · · · + ps ). Se N = ps otteniamo N ps = pN logp N flops. In particolare:
dove yk0 ,n0 =
se N = 2s
12
allora FFT corrisponde a 2N log2 N flops
Pi` u precisamente, il flops (o AM) `e il numero di operazioni corrispondenti all’istruzione FORTRAN A (I, J ) = A (I, J ) + T ∗ A (I, K) : comprende una moltiplicazione ed un’addizione in aritmetica floating-point, alcuni calcoli di indici e alcuni riferimenti alla memoria. Si incontra anche la definizione pi` u recente di flops come una operazione floating-point; in tal modo un flops nella prima definizione corrisponde a due flops nella seconda.
80
2 Equazioni alle differenze lineari
Esempio 2.80. Con riferimento alla terminologia della Teoria dei Segnali consideriamo un segnale discreto cio`e una successione di numeri ad indici interi relativi13 X = {Xk }k∈Z . Consideriamo un sistema o filtro causale, cio`e una trasformazione che al segnale discreto X in ingresso fa corrispondere un altro segnale Y = {Yk }k∈Z in uscita, secondo la legge: +∞
Yn =
n∈Z
Kn−m Xm
(2.47)
m=−∞
X
→
filtro
→
Y
dove K = {Km }m∈Z `e una successione assegnata verificante m |Km | < +∞ e Km = 0 se m `e minore di zero14 . Osserviamo innanzitutto che, se l’ingresso X `e N periodico allora anche l’uscita Y `e N periodica, infatti ∀n ∈ Z : Yn+N =
+∞
Kn+N−m Xm =
m=−∞
+∞
Kn−m Xm−N =
m=−∞
+∞
Kn−m Xm = Yn .
m=−∞
In realt` a i segnali X e Y sono descritti da vettori ad N componenti che de'T 'T & & noteremo con X = X0 X1 · · · XN−1 ed Y = Y0 Y1 · · · YN−1 . Un problema importante consiste nel risolvere il filtro (2.47), cio`e nel determinare D tale che X = DY. Il sistema (2.47) pu` o essere rappresentato mediante un’applicazione lineare di Rn in s`e stesso (vedi Appendice D) cio`e anzich´e calcolare le serie in (2.47) si calcolano somme finite, corrispondenti alla moltiplicazione di una matrice per un vettore. Dunque, cerchiamo di stabilire se esiste una matrice K di ordine N × N tale che Y = KX e in caso affermativo di determinarla (D, se esiste, `e uguale a K−1 ). A questo scopo definiamo15 il vettore K
di componenti
κn =
+∞
Kn+jN
n = 0, . . . , N − 1 .
j=−∞ 13
In tutto il libro, salvo che nell’Esempio 2.80, l’indice di successione ` e sempre naturale (n ∈ N). Tuttavia, per descrivere l’azione di un filtro causale su un segnale periodico la scelta degli indici k ∈ Z `e quella naturale. 14 Quest’ultima propriet` a caratterizza la causalit` a del filtro: ad un ingresso (non periodico) X tale che Xk = 0 se k < 0, corrisponde una uscita Y tale che Yk = 0 se k < 0. 15 Lavoriamo nell’ipotesi che +∞ e una condizione necessaria m=−∞ |Km | < +∞, che ` e sufficiente affinch´e a segnali limitati in ingresso corrispondano segnali limitati in uscita (propriet` a denominata stabilit` a del filtro).
2.8 La Trasformata Discreta di Fourier
81
Allora +∞
Yn =
Kn−m Xm =
m=−∞
Kn−(l−pN) Xl−pN =
p=−∞ l=0
+∞ N−1
=
+∞ N−1
Kn+pN−l Xl =
p=−∞ l=0
N−1
+∞
Xl
Kn+pN−l =
p=−∞
l=0
N−1
κn−l Xl
l=0
Dunque, la (2.47) ha una formulazione N dimensionale quando X `e N periodico: sia K una matrice quadrata di ordine N tale che Kn m = κn−m . Allora: Y = KX (2.48) che `e un sistema di N equazioni che semplifichiamo ulteriormente trasformandolo in N equazioni scalari disaccoppiate. Osserviamo che K `e una matrice circolante, cio`e ogni riga `e una permutazione ciclica della riga precedente. Prendiamo la DFT−1 (antitrasformata di Fourier Discreta) di ambo i mem−1 −1 −1 bri di (2.48) e, posto x = (DFT) X, y = (DFT) Y, k = (DFT) K, si ottiene $ % N−1 N−1 yn = κk−m Xm ωkn = m=0
k=0
=
N−1 N−1
κk−m ω(k−m)n Xm ωmn =
k=0 m=0
=
N−1
Xm ωmn
m=0
N−1
κk−m ω(k−m)n =
k=0
= xn k n
n = 0, . . . , N − 1 'T 'T 'T & & dove x = x0 x1 · · · xN−1 , y = y0 y1 · · · yN−1 , k = k0 k1 · · · kN−1 . Le N equazioni scalari yn = xn kn sono disaccoppiate, e se kn = 0, ∀n, si ricava yn xn = kn e applicando la DFT N−1 1 yh −hn Xn = ω . N kh &
h=0
−1
Poich´e y = (DFT)
Y, Xn si pu` o esprimere in termini di Yn come: N−1
1 Xn = N
N−1 h=0
Yj ωjh
j=0
kh
ω−hn
82
2 Equazioni alle differenze lineari
ossia, X =
1 F (diag (k0 , k1 , . . . , kN−1 )) F Y = N
= DFT diag (k0 , k1 , . . . , kN−1 ) (DFT) ⎡
ove
⎢ ⎢ ⎢ diag (k0 , k1 , . . . , kN−1 ) = ⎢ ⎢ ⎣
k0 0 · · ·
0
k1 · · · .. . . . .
0 .. .
0 .. .
−1
Y
⎤ ⎥ ⎥ ⎥ ⎥ . ⎥ ⎦
0 0 · · · kN−1 Concludendo:
1 F (diag (k0 , k1 , . . . , kN−1 )) F . N Osserviamo infine che se N `e grande, anzich´e calcolare i prodotti fra matrici, conviene calcolare trasformate ed antitrasformate mediante FFT. D=
Definizione 2.81. Definiamo la convoluzione circolare di due vettori & 'T 'T & N -dimensionali x = x0 x1 · · · xN−1 e y = y0 y1 · · · yN−1 : (x ∗ y)k =
N−1
xj yk−j
k = 0, 1, . . . , N − 1
j=0
dove se k − j < 0 allora yk−j denota convenzionalmente il valore yk−j+N . Osserviamo l’analogia fra le definizioni di convoluzione circolare di vettori e la convoluzione discreta di successioni (vedi la Definizione 2.45 e l’Esercizio 2.45). Pur trattandosi di operazioni differenti, il fatto di indicarle con lo stesso simbolo non crea equivoco perch´e tali operazioni si effettuano su oggetti di natura diversa. Illustriamo alcune utili relazioni fra convoluzione circolare e DFT. Teorema 2.82. Dati due vettori N -dimensionali x e y , usando la notazione / = DFTx, y / = DFTy, valgono: x
/ / (I) x = N x /y / (II) x ∗y = Nx 0 = x / ∗y / (III) xy
2.9 Esercizi di riepilogo
83
= Fx = Fx =Nx . Prova. (I) x = (DFT)−1 x (II) Tutte le somme vanno intese al variare dell’indice da 0 a N − 1: 1 −kh 1 −k(h−l) ω xl yh−l = ω yh−l ω −kl xl = x ∗y k = N N h
l
h,l
1 −kl −k(h−l) ω xl ω yh−l = = N l h 1 −k(h−l) 1 −kl ω xl ω yh−l = =N N N l
h
y )k . = N ( x)k ( , y = v nella (II), coniugando e tenendo conto della (I), (III) Scegliendo x = u otteniamo: 1 = Nu v = uv . u ∗v N , tenendo conto nuovamente di (I), otteniamo: Trasformando uv = N u ∗v ∗v = u ∗v . uv = u
2.9 Esercizi di riepilogo Esercizio 2.29. Determinare il numero minimo di mosse Xk descritto ricorsivamente nella soluzione degli Esercizi 1.9 e 1.10. Esercizio 2.30. Assegnato λ ∈ R, determinare la soluzione del problema ⎧ 1 ⎨X Xk − 2 k+1 = 3 ⎩X = λ 0
Studiare il comportamento asintotico di Xk al variare di λ ∈ R, e rappresentare graficamente l’andamento della successione per λ = 0. Esercizio 2.31. Assegnato λ ∈ R, determinare la soluzione dell’equazione Xk+1 = −Xk + 3 X0 = λ Studiare il comportamento asintotico al variare di λ ∈ R. Rappresentare graficamente l’andamento della successione per λ = 0, 5. Esercizio 2.32. Determinare la soluzione generale di ciascuna delle seguenti equazioni alle differenze omogenee: 1) Xk+3 + Xk = 0
∀k ∈ N
2) Xk+4 − Xk = 0
∀k ∈ N
3) Xk+4 + Xk = 0
∀k ∈ N
4) Xk+4 + 8Xk+2 + 16Xk = 0
∀k ∈ N .
84
2 Equazioni alle differenze lineari
Esercizio 2.33. Risolvere il problema Xk+2 − Xk+1 − 2Xk = k X0 = 0,
k∈N
X1 = 1
Esercizio 2.34. Risolvere il problema: Xk+2 − 5Xk+1 + 6Xk = Kk0 X0 = X1 = 0
∀k ∈ N
dove Kk0 denota l’impulso di Kronecker in 0: K00 = 1, Kk0 = 0, ∀k > 0. Esercizio 2.35. (Rovina del giocatore) Un giocatore effettua una successione di puntate di valore fissato (ad esempio, una moneta da un Euro), ogni puntata ha una probabilit` a p ∈ [0, 1] di vittoria (p `e noto e indipendente dalla puntata). Se il giocatore inizia con k monete e il gioco si interrompe quando il giocatore perde tutte le monete o riesce ad averne s (dove s `e noto e 0 ≤ k ≤ s), si calcoli la probabilit` a Xk che il giocatore perda tutte le monete cominciando con k monete, essendosi prefissato l’obiettivo di arrivare ad avere s monete. Esercizio 2.36. Esplicitare i coefficienti dello sviluppo delle soluzioni particolari individuate nell’Esercizio 1.14 per le equazioni di Bessel, Hermite, Laguerre e Legendre. Esercizio 2.37. Consideriamo una operazione finanziaria che prevede k pagamenti di importo costante (unitario) a k scadenze annuali (cominciando alla fine del primo anno). Calcolare il valore attuale Ak dell’operazione finanziaria, cio`e l’importo equivalente di un pagamento immediato, nelle ipotesi di tasso annuo di interesse composto e costante uguale ad r. Scrivere una relazione ricorsiva che lega Ak+1 e Ak , determinandone la soluzione in forma chiusa. Rispondere alle domande precedenti nel caso di tasso rk dipendente da k. Esercizio 2.38. Viene erogato un mutuo di importo M che sar` a estinto in k rate costanti. Ipotizzando che il tasso annuo di interesse r sia composto e costante, ed i pagamenti effettuati ai tempi 1, 2, . . . , k, calcolare l’importo Q di ciascuna rata. Esercizio 2.39. Un’obbligazione di tipo reverse-floater fornisce cedole che variano nel tempo secondo una formula prefissata all’atto dell’emissione, ma dipendente da parametri legati all’andamento di indici economici. Consideriamo ad esempio un’obbligazione della durata di 10 anni che fornisce una cedola del 6, 5% (annuo) per i primi due anni ed in seguito un interesse percentuale pari a rk = massimo fra {1, 5 e 15 − 2τk } dove τk `e l’indice Euribor a 12 mesi. a) Determinare il massimo e il minimo tasso d’interesse cedolare annuo conseguibile in ciascun anno. b) L’obbligazione considerata ha una elevata componente di rischio/possibilit` a di
2.9 Esercizi di riepilogo
85
guadagno, non inferiore a quella di un titolo azionario. In particolare, il prezzo dela soggetto a notevoli fluttuazioni. Per l’obbligazione sul mercato secondario16 sar` o essere rivenduta l’obillustrare questa situazione si valuti il prezzo Pk al quale pu` bligazione nell’anno k ad un acquirente che si attenda un flusso cedolare non inferiore a τk e ipotizzi che non vi siano variazioni dell’indice Euribor fino a scadenza. c) Sulla base dell’ipotesi del punto precedente, valutare il saldo dell’operazione ipotizzando di vendere l’obbligazione nell’anno k (senza aver nel frattempo reinvestito le cedole riscosse). d) Se l’indice Euribor assume i valori 5 5, 1 5, 2 4, 9 4 3 2, 5 2, 6 4 7, 5 nei vari anni di vita del titolo, qual `e il saldo dell’operazione se si vende il titolo a scadenza? Esercizio 2.40. Dimostrare il Teorema 2.46 sulla Z-trasformata della convoluzione discreta. Esercizio 2.41. Posto Sk = 1k + 2k + 3k + · · · + nk , mostrare che vale la relazione ! " 1 k k+2 k+2 Sk+1 = − (n + 1) − (n + 1) Sk − · · · − S1 . k+2 2 k+1 Esercizio 2.42. Nella prova del Teorema 2.15 si sfrutta la conoscenza del determinante di Vandermonde. Verificare la correttezza dell’espressione utilizzata. Esercizio 2.43. Calcolare la Z-trasformata della successione Xk =
1 . k!
Figura 2.15 Sbarra appoggiata a supporti equidistanti e caricata agli estremi
Esercizio 2.44. (Sbarra elastica sostenuta da supporti) Consideriamo una sbarra metallica di materiale omogeneo e sezione uniforme appoggiata a N − 1 supporti equidistanziati (Figura 2.15) e soggetta a carichi W agli estremi. In assenza di altri carichi, si pu` o mostrare che i momenti flettenti in corrispondenza dei supporti verificano l’equazione a due passi, detta equazione dei tre momenti (si veda l’Esempio 1.22), Mk−1 + 4Mk + Mk+1 = 0
1≤k ≤N −1
e che i momenti flettenti agli estremi della sbarra sono dati da 16
Nel mercato secondario vengono scambiati titoli obbligazionari prima della loro scadenza.
86
2 Equazioni alle differenze lineari M0 = MN = −W d .
Determinare i momenti flettenti in corrispondenza dei supporti (si noti che anzich´ e due condizioni iniziali, abbiamo una condizione iniziale ed una condizione finale, dette anche condizioni al bordo). $T # e Y = Esercizio 2.45. Siano assegnati due vettori X = X0 X1 · · · XN −1 $T # e due successioni X e Y i cui primi N termini coincidono Y0 Y1 · · · YN −1 rispettivamente con le componenti di X e Y e Xk = Yk = 0 se k ≥ N . Provare che (X ∗ Y )k = 0 se k > 2N − 2 e (X ∗ Y)k = (X ∗ Y )k + (X ∗ Y )k+N
k = 0, 1, . . . , N − 1 .
3 Sistemi dinamici discreti: equazioni scalari ad un passo
In questo capitolo affrontiamo lo studio di alcuni problemi non lineari. I modelli di cui ci occuperemo descrivono l’evoluzione di fenomeni a passi discreti corrispondenti ad intervalli temporali di lunghezza prescritta (eventualmente variabile). Per questo motivo essi vengono chiamati sistemi dinamici discreti. ` utile studiare tali modelli lasciando indeterminata la condizione iniziale, E perch´e spesso essa `e conosciuta solo con un certo grado di approssimazione, e comunque ha interesse conoscere il comportamento qualitativo di tutte le traiettorie per sapere se esse presentano o meno certe caratteristiche di struttura. A differenza del caso lineare, non si sanno esplicitare le soluzioni, salvo casi ` comunque utile il raffronto locale con s.d.d. lineari “vicini” (meparticolari. E todo di linearizzazione) per ottenere condizioni esplicite sul comportamento delle traiettorie. Data la complessit` a del problema, consideriamo qui solo sistemi dinamici discreti scalari, autonomi e ad un passo temporale.
3.1 Definizioni preliminari Un sistema dinamico discreto, brevemente s.d.d., `e la formalizzazione di un fenomeno evolutivo completamente descritto da una funzione la cui immagine `e contenuta nel dominio: a partire da ogni stato iniziale ammissibile, si genera una successione di stati mediante la ripetizione iterativa della trasformazione indotta dalla funzione assegnata. Vediamo una definizione formale di sistema dinamico discreto che comprende i casi di cui ci occuperemo. Definizione 3.1. Siano I un intervallo contenuto in R contenente almeno due punti distinti, ed f : I → I una funzione continua. La coppia {I, f} viene detta sistema dinamico discreto su I, del primo ordine, autonomo, in forma normale. Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
88
3 Sistemi dinamici discreti: equazioni scalari ad un passo
In tutto il capitolo si studiano solo tali sistemi, per brevit` a ci si riferisce ad essi come sistemi dinamici discreti o s.d.d., sottintendendo il resto. Osservazione 3.2. Si noti che, assegnati un s.d.d. {I, f} ed un valore iniziale X0 ∈ I, `e univocamente determinata una successione {Xk } definita per ricorrenza da Xk+1 = f (Xk ) k∈N per cui risulta X1 = f (X0 ) X2 X3 ... Xk
= = = =
f (X1 ) = f (f (X0 )) f (X2 ) = f (f (f (X0 ))) ... f (Xk−1 ) = f (f (. . . (f (X0 )))) = f ◦ f ◦ · · · ◦ f (X0 ) k volte
dove tutte le valutazioni di f sono ben definite perch´e f (I) ⊆ I. Viceversa, in molti casi le successioni definite per ricorrenza si possono interpretare come successioni generate da un s.d.d. in corrispondenza ad un particolare valore iniziale. Esempio 3.3. Consideriamo alcuni esempi di s.d.d. {I, f} a fianco dei quali abbiamo indicato la corrispondente legge ricorsiva: f (x) =
1 x 2
1 Xk 2
I = [0, 1]
Xk+1 =
f (x) = 5x
I=R
Xk+1 = 5Xk
f (x) = 3x + 2
I=R
Xk+1 = 3Xk + 2
I = (0, +∞)
Xk+1 =
f (x) =
x 1+x
Xk 1 + Xk
Per denotare la iterata k-esima di f adotteremo la seguente notazione f 0 = identit` a fk = f ◦ f ◦ · · · ◦ f k volte
Dunque, tornando al s.d.d. {I, f}, risulta Xk = f k (X0 ), ∀k ∈ N. Osservazione 3.4. Il lettore `e probabilmente abituato ad utilizzare la notazione (comoda, ma formalmente scorretta) che omette le parentesi per denotare il prodotto per s`e stesso del valore di una funzione: ad esempio, sin2 x
3.1 Definizioni preliminari
89
2
anzich´e (sin x) . Tale consuetudine andrebbe tuttavia limitata ai soli casi in cui non pu` o creare equivoco con la composizione ed evitata nei casi, come il nostro, in cui sin2 x deve, pi` u correttamente, indicare sin (sin x) . Definizione 3.5. Un s.d.d. {I, f} si dice lineare se f `e lineare; (lineare) affine se f `e (lineare) affine; non lineare se f non `e lineare affine. Esempio 3.6. Con riferimento all’Esempio 3.3, i primi due s.d.d. sono lineari, il terzo `e lineare affine, il quarto `e non lineare. Sottolineiamo esplicitamente che (salvo casi molto particolari di cui vedremo solo pochi esempi) non si sanno determinare espressioni esplicite per i s.d.d. non lineari, cio`e non si riesce a calcolare Xk come funzione nota di k ed X0 . Pertanto diventa assai importante lo studio qualitativo dell’andamento delle successioni che soddisfano la relazione ricorsiva, del loro comportamento asintotico e della dipendenza di tale comportamento dai dati iniziali. Definizione 3.7. Assegnati un s.d.d. {I, f} ed un valore X0 ∈ I, la successione ! {X0 , X1 , . . . , Xk , . . . } = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k (X0 ) , . . . si dice traiettoria (o orbita), indicata con γ (I, f, X0 ), del s.d.d. corrispondente al valore iniziale X0 . Definizione 3.8. L’insieme di tutte le orbite o traiettorie di un s.d.d. {I, f} al variare di X0 ∈ I si dice quadro delle fasi (o quadro delle traiettorie). ` spesso utile una visualizzazione grafica del quadro delle fasi, in cui si eviE denziano mediante frecce i successivi cambi di posizione dovuti alla iterazione della funzione che governa il s.d.d. ! Esempio 3.9. Consideriamo il s.d.d. R, x4 . Rappresentiamo R con una retta (orientata) verticale e disegnamo il quadro delle fasi. Si osservi che f (0) = 0, f (1) = 1 e f (x) > x se x > 1 , 0 < f (x) < x se 0 < x < 1 e f (x) > 0 se x < 0. Il disegno in Figura 3.1 evidenzia che tutte le traiettorie diventano non negative alla prima iterazione; inoltre, se 0 ≤ |x| < 1 la traiettoria f k (x) tende a zero, mentre se |x| > 1 la traiettoria f k (x) tende a +∞ (i valori 0 ed 1 corrispondono a traiettorie costanti). Esempio 3.10. In Figura 3.2 `e tracciato il diagramma delle fasi del sistema dinamico discreto {[−π, π] , cos x}. Esempio 3.11. Un sistema di infinite equazioni del tipo (equazione alle differenze del primo ordine) Xk+1 − Xk = g (Xk )
k∈N
(3.1)
corrisponde al s.d.d. {I, f} qualora, posto f (x) = g (x) + x, si determini un intervallo I ⊆ R tale che f (I) ⊆ I, nel senso che in tali ipotesi il quadro delle fasi del s.d.d. {I, f} `e l’insieme di tutte le soluzioni delle equazioni alle differenze (3.1) che hanno valore iniziale X0 in I.
90
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Figura 3.1
% & s.d.d. R, x4
Figura 3.2 s.d.d. {[−π, π] , cos x}
Osservazione 3.12. In molti modelli matematici discreti si incontrano funzioni f la cui immagine non `e contenuta nel dominio (ad esempio f (x) = log x), o funzioni il cui dominio non `e neppure un intervallo (ad esempio f(x) = 1/x). In tali casi ha comunque interesse studiare l’equazione alle differenze1 Xk+1 = f (Xk ) che tuttavia risulta ben posta solo per quelle scelte del valore iniziale X0 che garantiscono che f (Xk ) appartenga al dominio di f per ogni k. Definizione 3.13. Dato un s.d.d. {I, f}, un numero α ∈ R si dice equilibrio (o punto fisso o punto stazionario) per il s.d.d. se vale
α = f (α)
α∈I
Se si sceglie un dato iniziale X0 = α che `e di equilibrio, allora l’orbita corrispondente si dice orbita stazionaria: γ (I, f, α) = {α, α, α, . . .} . 1
Chiaramente equivale a Xk+1 − Xk = g (Xk ) dove g (x) = f (x) − x.
3.1 Definizioni preliminari
91
Pi` u in generale, se per un certo X0 ∈ I esiste un k tale che f k (X0 ) = α = f (α), allora la traiettoria `e definitivamente stazionaria: ! γ (I, f, X0 ) = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k−1 (X0 ) , α, α, α, . . . . Osservazione 3.14. La ricerca degli equilibri di un s.d.d. {I, f} `e equivalente alla determinazione delle intersezioni nel piano di coordinate x, y della retta di equazione y = x con il grafico di f, di equazione y = f (x), con l’ulteriore richiesta di limitarsi alle intersezioni contenute nell’insieme I × I. Osservazione 3.15. Se α `e un equilibrio per il s.d.d. {I, f}, allora α `e un ! equilibrio anche per il s.d.d. I, f k per ogni k ∈ N . Definizione 3.16. Sia {I, f} un s.d.d.. Un ciclo di ordine s (o orbita periodica di (minimo) periodo s , o s ciclo) `e un insieme di s valori in I, {α0 , α1 , . . . , αs−1 } diversi tra loro e verificanti α1 = f (α0 ) ,
α2 = f (α1 ) ,
...,
αs−1 = f (αs−2) ,
α0 = f (αs−1 )
s prende il nome di periodo dell’orbita (o ordine del ciclo). Se α0 `e come nella Definizione 3.16, allora la traiettoria γ (I, f, α0 ) ha andamento s periodico: γ (I, f, α0 ) = {α0 , α1 , α2 , . . . , αs−1 , α0 , α1 , α2 , . . . , αs−1 , α0 , . . . } . Le eventuali orbite periodiche di periodo s di un s.d.d. {I, f} si determinano come le traiettorie i cui valori appartengono all’insieme delle soluzioni dell’es quazione {x ∈ I : f ! (x) = x}, privato delle soluzioni di tutte le s−1 equazioni h x ∈ I : f (x) = x , h = 1, 2, . . ., s − 1 (si veda l’Osservazione 3.15). Esempio 3.17. Il s.d.d. lineare {R, −x} presenta un solo equilibrio (α = 0) ed infinite orbite periodiche di periodo due: {X0 , −X0 } (si veda la Figura 2.2). Esempio 3.18. Il s.d.d. non lineare {(0, +∞) , 1/x} presenta un! solo equilibrio (α = 1) ed infinite orbite periodiche di periodo 2 : X0 , X0−1 (si veda la Figura 3.3). ! 2 Esempio 3.19. Il s.d.d. [0, 1] , 4 x − x presenta ! due equilibri, 0 e 3/4, 2 che sono le soluzioni di x ∈ [0, 1] : 4 x − x = x , ed una sola orbita 2 pe√ √ ! riodica 5 − 5 /8, 5 + 5 /8 ottenuta risolvendo " # 2 x ∈ [0, 1] : 4 4 x − x2 − 16 x − x2 =x (3.2) ed eliminando i valori 0 e 3/4. Si noti che l’equazione di quarto grado (3.2) non `e di risoluzione immediata; tuttavia si possono raccogliere i termini x e (x − 3/4) riducendola ad una equazione di secondo grado. Questo `e un fatto generale, perch´e se f (α) = α allora f k (α) = α, ∀k ∈ N.
92
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Figura 3.3 Equilibrio e orbite periodiche di {(0, +∞) , 1/x}
Un’orbita X di un s.d.d. si dice definitivamente periodica se esistono h ∈ N ed {α0 , α1 , . . . , αs−1} diversi tra loro e verificanti Xh = α0 , Xh+1 = α1 , . . . , Xh+s = α0 . Ad esempio la funzione continua ⎧ x < −1 ⎨ x+2 −x −1≤x≤1 f(x) = ⎩ x−2 x>1 genera la traiettoria definitivamente 2 periodica X : X0 = 5, X1 = 3, X2 = 1, X3 = −1, X4 = 1 . . . . Il seguente teorema fornisce una condizione sufficiente per l’esistenza di punti fissi. Teorema 3.20. Sia I = [a, b] un intervallo chiuso e limitato, contenuto in R e f : I → I una funzione continua. Allora esiste α ∈ I tale che α = f (α). Prova. La funzione g (x) = x − f (x) `e continua in I, in quanto differenza di funzioni continue, e g (a) = a − f (a) ≤ 0 ≤ b − f (b) = g (b) . Dunque, o g si annulla in a, o g si annulla in b, oppure, se non si annulla negli estremi allora, per il teorema di esistenza degli zeri, g deve annullarsi all’interno dell’intervallo [a, b].
3.1 Definizioni preliminari
93
b
a
a
b
Figura 3.4 Grafico di una funzione verificante le ipotesi del Teorema 3.20
Corollario 3.21. Se {I, f} `e un s.d.d. ed I `e un intervallo chiuso e limitato, allora esiste un equilibrio. Se I non `e limitato oppure se I `e aperto, allora vengono meno la tesi del Teorema 3.20 e del Corollario 3.21, come illustrato dai seguenti esempi: I=R
f (x) = x + ex
I = (0, 1)
f (x) = x2 .
Comunque vale il risultato seguente. Teorema 3.22. Sia A un qualunque sottoinsieme non vuoto di R, f : A → A una funzione continua, X0 ∈ A ed Xk+1 = f (Xk ), k ∈ N. Se esiste finito L = lim Xk ed L ∈ A , allora L `e un punto fisso di f, cio`e L = f (L). k
Prova. Se Xk → L ∈ A, si ha Xk+1 → L. Cos`ı: L = lim Xk = lim Xk+1 = k
perch´ e Xk+1 =f (Xk )
k
perch´ ef ` e continua
= lim f (Xk ) = k = f lim Xk = k
= f (L) .
Il Teorema 3.22 ci permette di applicare la seguente strategia per lo studio del comportamento asintotico di un s.d.d. {I, f}:
94
3 Sistemi dinamici discreti: equazioni scalari ad un passo
se la funzione f `e continua, si ricercano le eventuali soluzioni reali dell’equazione {L ∈ I : f (L) = L} Fra queste si trovano gli eventuali limiti finiti di Xk+1 = f (Xk ) al variare di X0 in I. Considerazioni di tipo monotonia consentono di stabilire l’esistenza o meno di soluzioni divergenti nei casi in cui I `e illimitato. Esempio 3.23. Consideriamo il s.d.d. {I, f} dove I = [−2, +∞) ed f (x) = √ x + 2. Allora la funzione f `e continua e ricordando che una radice aritmetica `e una quantit` a non negativa
√ L≥0 L+2= L ⇒ ⇒ L = 2. L + 2 = L2 Per il Teorema 3.22, l’eventuale limite finito `e l’equilibrio α = 2. Inoltre, limk Xk = +∞ `e da escludersi perch´e Xk ≤ 2 o Xk > 2 implicano rispettivamente Xk+1 ≤ 2 o Xk+1 < Xk . L’aver individuato i possibili comportamenti asintotici di un s.d.d. non basta se non si affianca a tale risultato l’informazione che la successione indotta {Xk } ammette limite; a tale scopo risulta utile il teorema di esistenza del limite per successioni monot` one2: una successione reale monot` ona crescente (decrescente) ammette sempre limite; tale limite `e finito se e solo se la successione `e limitata, `e +∞ ( −∞) se e solo se la successione `e illimitata. Spesso `e comodo ricorrere al principio di induzione per provare la monotonia di una soluzione Xk nei casi concreti. Esempio 3.24. Consideriamo la successione Xk+1 = Xk2 con X0 = λ ∈ (0, 1) e mostriamo, per induzione, che `e strettamente decrescente. Da λ ∈ (0, 1) segue X1 = λ2 < λ = X0 < 1. Inoltre, se 0 < Xk < Xk−1 allora 2 0 < Xk2 < Xk−1 cio`e Xk+1 < Xk . Dunque Xk `e strettamente decrescente. Notiamo che, essendo la successione inferiormente limitata da 0, da quanto appena dimostrato e dal Teorema 3.22 segue limk Xk = 0. Esercizio 3.1. Tracciare i diagrammi di fase dei seguenti s.d.d. {I, f }: 1) I = R, f (x) = arctan x 2
2) I = (0, +∞) , f (x) =
1 . x
Ricordiamo che una successione X si dice monot` ona crescente (rispettivamente decrescente) se Xk+1 ≥ Xk (rispettivamente Xk+1 ≤ Xk ) per ogni k. La monotonia si dice stretta quando tutte le disuguaglianze sono strette.
3.2 Ancora sull’analisi grafica
95
Esercizio 3.2. Determinare graficamente i punti fissi di {R, ex − 1}. Esercizio 3.3. Determinare le orbite 3 periodiche di {[0, 1] , 1 − 2 |x − 1/2|}. Esercizio 3.4. Studiare la monotonia, al variare di λ in [−2, +∞), della successione √ Xk+1 = Xk + 2 (3.3) X0 = λ
3.2 Ancora sull’analisi grafica ` di grande utilit` E a nello studio dei s.d.d. l’uso del metodo grafico gi` a introdotto nel paragrafo 1.4 nel caso particolare di una funzione f lineare affine. Ovviamente l’approccio grafico si pu` o applicare con qualunque funzione f, anche non lineare. L’efficacia di tale metodo non dipende solo dall’aiuto che d` a alla previsione visiva delle traiettorie ma al fatto che corrisponde ad un semplice algoritmo la cui iterazione pu` o essere delegata a procedure di calcolo automatico: ad esempio, se {I, f} `e il s.d.d. ed X0 il dato iniziale, allora un programma per calcolare con un computer le prime 100 iterazioni esegue le istruzioni seguenti
Algoritmo per l’analisi grafica (1) (2) (3) (4) (5) (6)
k=0 x = X0 y = f (x) x=y k=k+1 se k = 100 stop, se k < 100 torna a (3)
L’istruzione (6) interrompe ad un certo valore di k le iterazioni, altrimenti il ciclo non avrebbe termine. Se si `e interessati ai valori Xk basta inserire una istruzione (3’) tra (3) e (4):
(3’) stampa k e x
ottenendo in tal modo una tabella della traiettoria: k
0
1
2 ... k ...
valori successione X0 X1 X2 . . . Xk . . .
96
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Per riportare pi` u passi con maggior chiarezza nella rappresentazione grafica conviene omettere i segmenti verticali di estremi (Xk , 0) e (Xk , Xk ) ed i segmenti orizzontali di estremi (0, Xk+1 ) e (Xk , Xk+1 ) ottenendo delle spezzate che spesso sono chiamate ragnatele.
Figura 3.5
Ragnatela di {R, ex }, X0 = −2
Figura 3.7
% & Ragnatela di R, e−x , X0 = −1
Figura 3.6 Traiettoria
Figura 3.8 Traiettoria
Esercizio 3.5. Si affronti lo studio del s.d.d. dell’Esempio 3.23 con il metodo grafico: si noti come sia molto pi` u facile congetturare e provare le corrette propriet` a di monotonia. Inoltre i grafici suggeriscono una strategia di prova molto semplice: se ona e limitata. . . . −2 ≤ x ≤ 2, allora x < f (x) < 2 , dunque Xk `e monot`
3.3 Comportamento asintotico in ipotesi di monotonia Dato un s.d.d. {I, f}, lo studio della monotonia delle successioni indotte pu` o non risultare immediato. Pi` u semplice appare lo studio della monotonia della
3.3 Comportamento asintotico in ipotesi di monotonia
97
funzione f , studio dal quale si possono ricavare, con i risultati del paragrafo precedente, alcune informazioni sull’andamento asintotico delle traiettorie. Riassumiamo queste considerazioni in un paio di flow-chart (riportati nel seguito e denominati Algoritmo I e Algoritmo II) che descrivono un algoritmo pratico per lo studio qualitativo delle traiettorie di {R, f} quando f `e monot` ona, senza ulteriori ipotesi o informazioni sulla sua derivabilit` a. La dimostrazione `e lasciata come esercizio. I simboli e denotano rispettivamente monotonia crescente e decrescente. A proposito dell’Algoritmo II, si noti che se f `e decrescente allora f 2 `e crescente, pertanto per la dimostrazione si pu` o applicare il primo schema separatamente alle successioni dei termini di indice pari e di indice dispari.
Algoritmo I Sia f : R → R una funzione continua e crescente. Allora assegnato X0 ∈ R calcolare X1 = f (X0 ) se X1 = X0 , allora Xk = X0 per ogni k ∈ N
⎧ ⎪ se esistono punti fissi di f maggiori di X0 , allora ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ Xk → α, minimo punto fisso maggiore di X0 se X1 > X0
⎪ ⎪ ⎪ se non esistono punti fissi di f maggiori ⎪ ⎪ ⎪ ⎩ di X0 , allora Xk +∞
⎧ ⎪ se esistono punti fissi di f minori di X0 , allora ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ Xk → β, massimo punto fisso minore di X0 se X1 < X0
⎪ ⎪ ⎪ se non esistono punti fissi di f minori ⎪ ⎪ ⎪ ⎩ di X0 , allora Xk −∞
98
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Algoritmo II Sia f : R → R una funzione continua e decrescente. Allora assegnato X0 ∈ R calcolare X1 = f (X0 ) se X1 = X0 allora Xk = X0 per ogni k ∈ N ⎧ ⎪ se X2 = X0 , allora Xk `e 2 periodica ⎪ ⎪ ⎪ ⎪ X2k = X0 , X2k+1 = X1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ ⎪ ⎪ ⎪ 2 ⎪ ⎪ se esistono punti fissi di f maggiori ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ di X0 alloraX2k α, minimo ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 2 ⎪ ⎪ punto fisso di f maggiore di X0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ e X2k+1 β = f (α) ⎪ ⎪ ⎪ ⎪ se X2 > X0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 2 ⎪ ⎪ se non esistono punti fissi di f ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ maggiori di X0 , allora ⎪ ⎨ ⎪ ⎪ ⎪ se X1 = X0 ⎪ ⎪ X2k +∞, X2k+1 f (+∞) ⎪ ⎪ ∗ ⎩ ⎪ ( ) ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ ⎪ ⎪ ⎪ ⎪ se esistono punti fissi di f 2 minori ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ di X0 , allora X2k β , massimo ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ punto fisso minore di X0 , ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ X α = f (β) ⎪ 2k+1 ⎪ ⎪ ⎪ se X2 < X0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 2 ⎪ ⎪ se non esistono punti fissi di f ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ minori di X0 , allora ⎪ ⎪ ⎪ ⎪ ⎩ ⎩ X2k −∞,X2k+1 f (−∞)
(∗)
f (+∞) = lim f (x), x→+∞
f (−∞) = lim f (x) x→−∞
Esempio 3.25. Per studiare l’andamento qualitativo delle traiettorie del s.d.d. {R, x + sin x}, osserviamo che f (x) = x + sin x `e una funzione crescente (infatti f (x) = 1 + cos x ≥ 0, ∀x ∈ R), dunque possiamo applicare l’Algoritmo I, ottenendo:
3.3 Comportamento asintotico in ipotesi di monotonia
99
Figura 3.9 Grafico di x + sin x e dell’identit` a
• se X0 = kπ, allora Xk = X0 per ogni k; • se esiste un intero k tale che 2kπ < X0 < (2k + 1)π, allora Xk (2k + 1)π; • se esiste un intero k tale che (2k + 1)π < X0 < (2k + 2)π, allora Xk (2k + 1)π . ! Esempio 3.26. Consideriamo il s.d.d. R, −x3 . La funzione f `e monot`ona decrescente in senso stretto: applichiamo l’Algoritmo II. A tal fine, se X0 ∈ R si ha X1 = f (X0 ) = −X03 e quindi X1 = X0
⇔
−X03 = X0
⇔
X0 = 0.
Cos`ı, se X0 = 0 si ricava Xk = 0 per ogni k ∈ N. Se X0 = 0 si ha X1 = X0 e a questo punto `e necessario determinare X2 : 3 X2 = f (X1 ) = f 2 (X0 ) = − −X03 = X09 .
100
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Poich´e X2 = X0
⇔
X09 = X0
⇔
X0 = 0 oppure X0 = ±1.
Possiamo cos`ı concludere: • • • • • • •
se se se se se se se
X0 < −1, allora X2k −∞ e X2k+1 +∞; k+1 ; X0 = −1, allora Xk `e 2 periodica: Xk = (−1) −1 < X0 < 0, allora X2k 0 e X2k+1 0; X0 = 0, allora Xk = 0 per ogni k; 0 < X0 < 1, allora X2k 0 e X2k+1 0; k X0 = 1, allora Xk `e 2 periodica: Xk = (−1) ; X0 > 1, allora X2k +∞ e X2k+1 −∞.
Figura 3.10 f (x) = −x3
Figura 3.11 f 2 (x) = x9
Esercizio 3.6. Assegnato X0 ∈ R , determinare in forma chiusa la traiettoria del s.d.d. dell’Esempio 3.26. Esercizio 3.7. Stabilire il comportamento asintotico del s.d.d. {R, f } con f (x) = (x + |x|) /4. Esercizio 3.8. Stabilire il comportamento asintotico del s.d.d. {[−π, π] , f } con (π − |x|) . f (x) = x + 2 Esercizio 3.9. Dimostrare le implicazioni contenute negli Algoritmi I e II. Esercizio 3.10. Risolvere l’Esercizio 3.4 utilizzando i risultati di questo paragrafo.
3.4 Teorema delle contrazioni
101
3.4 Teorema delle contrazioni In questo paragrafo, che pu` o essere saltato in una prima lettura, enunciamo un risultato di grande importanza teorica e numerica: il Teorema delle Contrazioni. Nel caso particolare dei problemi studiati in questa trattazione, esso consente di stabilire l’esistenza e l’unicit` a di punti fissi per s.d.d. {I, f} con f non necessariamente derivabile e di effettuare una approssimazione numerica di tali punti fissi. Tale approssimazione `e assai utile quando l’equazione {α ∈ I : α = f (α)} non `e risolubile in forma chiusa. Definizione 3.27. Sia I ⊆ R un intervallo. Una funzione f : I → I `e una contrazione se esiste una costante τ < 1 tale che |f (x) − f (y)| ≤ τ |x − y|
∀x, y ∈ I
Si noti che una contrazione `e sempre continua, anzi uniformemente continua. Teorema 3.28. (Teorema delle contrazioni) Sia I un intervallo chiuso di R , ed f : I → I sia una contrazione. Allora il s.d.d. {I, f} ha un unico equilibrio α . Inoltre, per ogni dato iniziale X0 ∈ I, posto Xk+1 = f (Xk ), risulta: lim Xk = α . k
Pi` u precisamente, vale la seguente stima: |Xk − α| <
|f (X0 ) − X0 | k τ . 1−τ
Prova. Fissato X0 ∈ I, si ha, per k = 1, 2, . . . |Xk+1 − Xk | = |f (Xk ) − f (Xk−1 )| ≤ τ |Xk − Xk−1 | e quindi, iterando |Xk+1 − Xk | ≤ τ k |X1 − X0 | . Sfruttando la disuguaglianza triangolare e quanto appena mostrato sopra, per ogni h ≥ 1, si ricava |Xk+h − Xk | ≤
h−1
|Xk+n+1 − Xk+n | ≤ |X1 − X0 | τ k
n=0
h−1
τn =
n=0
|X1 − X0 | k 1 − τh ≤ τ . = |X1 − X0 | τ k 1−τ 1−τ Poich´e τ < 1, la successione {Xk } `e di Cauchy e , per la chiusura di I, esiste α ∈ I
102
3 Sistemi dinamici discreti: equazioni scalari ad un passo
a di f implica tale che limk Xk = α. La continuit` f (α) = f (lim Xk ) = lim f (Xk ) = lim Xk+1 = α . k
k
k
Da α1 , α2 punti fissi segue |α1 − α2 | = |f (α1) − f (α2 )| ≤ τ |α1 − α2 |, cio`e α1 = α2 . |X1 − X0 | k Se si tiene fisso k e si prende il limite per h → +∞ in |Xk+h − Xk | ≤ τ , 1−τ si deduce |X1 − X0 | k τ . |α − Xk | < 1−τ
Osservazione 3.29. La tesi del Teorema 3.28 rimane vera anche se I ⊂ R `e solo un insieme chiuso e non vuoto, grazie alla completezza di R. Osservazione 3.30. Una contrazione pu` o non essere derivabile (ad esempio, f (x) = |x| /2), comunque, grazie al teorema di Lagrange, ogni funzione f in C 1 (I) per cui esiste τ tale che |f (x)| ≤ τ < 1
∀x ∈ I
`e una contrazione. Esempio 3.31. Un’applicazione notevole del Teorema delle Contrazioni si ha nella ricerca degli zeri di una funzione g : I → I {x ∈ I :
g (x) = 0}
nelle ipotesi g ∈ C (I) e |1 + g (x)| ≤ τ < 1 oppure |1 − g (x)| ≤ τ < 1. Il problema `e equivalente alla ricerca dei punti fissi di f : I → I, dove, rispettivamente, f (x) = x + g (x) oppure f (x) = x − g (x), infatti: 1
f (x) = x
⇔
g (x) = 0.
Le ipotesi assicurano che una tale f `e una contrazione, dunque g ha un unico zero che pu`o essere approssimato dalla successione Xk+1 = f (Xk ) a partire da qualunque X0 ∈ I (oppure Xk+1 = −f (Xk )). Esercizio 3.11. Determinare il quadro delle traiettorie del s.d.d. {R, |x − 1| /2} .
3.5 La nozione di stabilit` a In questa sezione introduciamo alcune definizioni allo scopo di precisare formalmente le propriet` a di stabilit` a. Definizione 3.32. Un equilibrio α del s.d.d. {I, f} si dice equilibrio stabile se, per ogni ε > 0, esiste una costante δ > 0 tale che |X0 − α| < δ e Xk = f k (X0 ), k ∈ N, implicano |Xk − α| < ε
∀k ∈ N.
3.5 La nozione di stabilit` a
103
Viceversa, α si dice equilibrio instabile se non `e stabile, cio`e se esiste ε0 > 0 tale che, per ogni δ > 0, si possono determinare X0 ∈ I e k > 0 tali che |X0 − α| < δ X − α > ε0 . k
La definizione precedente merita una attenta riflessione. La propriet` a di stabilit` a per un equilibrio α ha il seguente significato: il dato iniziale X0 = α produce una traiettoria costante coincidente con l’equilibrio; inoltre, un dato iniziale X0 “leggermente diverso” da α d` a luogo ad una traiettoria che, per tutti i suoi valori, “si discosta di poco” dall’equilibrio. Lo studio della stabilit` a di un equilibrio ha enorme importanza nelle applicazioni: infatti il dato iniziale non `e quasi mai noto con precisione, tuttavia `e spesso possibile stimare l’errore con cui viene determinato. Si verifichi che gli equilibri degli Esempi 3.17 e 3.18 sono stabili (il primo scegliendo δ = ε, il secondo con δ = ε/ (1 − ε), ovviamente per ε ∈ (0, 1)), mentre lo 0 `e instabile per (2x, R). Definizione 3.33. Un equilibrio α del s.d.d. {I, f} si dice equilibrio globalmente attrattivo se, per ogni X0 ∈ I, posto Xk = f k (X0 ), risulta lim Xk = α. k
Definizione 3.34. Un equilibrio α del s.d.d. {I, f} si dice equilibrio localmente attrattivo se esiste η > 0 tale che, per ogni X0 ∈ I ∩ (α − η, α + η), posto Xk = f k (X0 ), risulta lim Xk = α. k
Si osservi che gli equilibri degli Esempi 3.17 e 3.18 non sono attrattivi (neanche localmente), pur essendo entrambi stabili. Definizione 3.35. Un equilibrio α del s.d.d. {I, f} si dice equilibrio globalmente asintoticamente stabile se valgono le seguenti condizioni: 1) α `e stabile; 2) α `e globalmente attrattivo. α si dice equilibrio localmente asintoticamente stabile se `e stabile e localmente attrattivo. Osservazione 3.36. Se f `e una contrazione in I, allora dal Teorema 3.28 segue che {I, f} `e un s.d.d. con un unico equilibrio che risulta globalmente asintoticamente stabile. Esempio 3.37. Nel caso lineare, {R, f} con f (x) = ax + b, se vi `e un equilibrio attrattivo (cio`e |a| < 1) allora esso `e anche globalmente asintoticamente stabile (ed `e unico). Se f non `e lineare la questione `e pi` u delicata. Esempio 3.38. Per acquisire familiarit` a con le varie definizioni, il lettore provi che per il s.d.d. {R, f} con f (x) = x3 + x/2 , lo 0 `e un equilibrio stabile e localmente attrattivo, ma non globalmente attrattivo. Dunque 0 `e localmente asintoticamente stabile.
104
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Per comprendere la definizione successiva, `e opportuno ricordare la nozione di distanza di un punto x da un insieme chiuso C: dist (x, C) = min {|x − c| : c ∈ C} . Definizione 3.39. Un insieme A ⊂ I si dice attrattore (o pozzo, o insieme localmente attrattivo) per un s.d.d. {I, f} se valgono tutte le condizioni seguenti: 1) A `e chiuso, cio`e contiene tutti i suoi punti di accumulazione; 2) A `e invariante, cio`e f (A) = A; 3) esiste η > 0 tale che, per ogni x ∈ I che verifica dist(x, A) < η, vale lim dist f k (x) , A = 0; k
4) A `e minimale, cio`e non vi sono sottoinsiemi propri di A che verificano 1), 2) e 3). Definizione 3.40. Se A `e un attrattore per {I, f} allora l’insieme
x ∈ I : lim f k (x) ∈ A k
`e detto bacino di attrazione di A per il s.d.d. {I, f}. Esempio 3.41. Un equilibrio localmente attrattivo `e un attrattore. Esempio 3.42. Il s.d.d. {R, f} con f (x) = x e1−x ha due equilibri: 0 e +1 . L’equilibrio 0 `e instabile e non `e attrattivo, +1 `e localmente asintoticamente stabile, l’intervallo [0, +1] `e un insieme invariante ma non `e un attrattore (non verifica la 4) ). Osservazione 3.43. Assegnato un s.d.d. {I, f}, l’insieme 1 f k (I) T = k≥1
`e sempre invariante, cio`e f (T ) = T . Infatti, se si tiene conto delle inclusioni f k+1 (I) ⊆ f k (I) , si ottiene: ⎛ ⎞ ⎛ ⎞ 1 1 1 1 T = f k (I) = f f k (I) = f ⎝ f k (I)⎠ = f ⎝ f k (I)⎠ = f (T ) . k≥1
k≥2
k≥2
k≥1
6
Spesso, ma non sempre, l’insieme T = k≥1 f k (I) `e un attrattore o, perlomeno, l’unione di pi` u attrattori di {I, f}. Questo dipende dal fatto che, per ogni 6k X0 ∈ I, le iterate f k (X0 ) approssimano T nel senso che f k (X0 ) ∈ j=1 f j (I) e dalle inclusioni f k+1 (I) ⊆ f k (I) segue che lim f k (X0 ) appartiene alla k
chiusura di T .
3.5 La nozione di stabilit` a
105
Definizione 3.44. Un’orbita periodica {α0 , α1, . . . , αs−1}, di minimo periodo s, si dice orbita stabile per un s.d.d. {I, f} se i punti α0 , α1, . . . , αs−1 sono equilibri stabili per f s . Definizione 3.45. (equivalente alla precedente) Un’orbita periodica {α0 , α1 , . . . , αs−1}, di minimo periodo s, si dice orbita stabile per un s.d.d. {I, f} se per ogni ε > 0 esiste δ > 0 tale che assegnato j ∈ {0, . . . , s − 1} allora
e
Xj ∈ I :
k−j f (Xj ) − αk(mod s) < ε
|Xj − αj | < δ ∀k > j
dove k (mod s) denota l’unico intero in {0, 1, . . . , s − 1} congruo a k modulo s (cio`e l’unico intero che d` a lo stesso resto di k quando `e diviso per s). Definizione 3.46. Un’orbita periodica si dice localmente asintoticamente stabile se `e contemporaneamente un’orbita stabile ed un insieme localmente attrattivo. Esempio 3.47. Studio grafico del s.d.d. {(0, 1) , f} , f (x) = 3, 1 x − x2 . Utilizzando l’Osservazione 3.14 si pu` o mostrare che ha un’unica orbita 2 periodica {γ, β} e che essa `e localmente asintoticamente stabile, mentre non `e globalmente asintoticamente stabile a causa della presenza dei due equilibri 0 e 21/31. Tali equilibri non sono n´e stabili, n´e localmente attrattivi. Si noti che i singoli valori γ o β (appartenenti all’orbita periodica) non sono attrattori qualora vengano considerati singolarmente (si vedano le Figure 3.12, 3.13). Definizione 3.48. Un insieme R ⊂ I si dice insieme repulsivo (o repulsore) per il s.d.d. {I, f} se valgono tutte le seguenti condizioni:
γa
αa βa
Figura 3.12 f (x) = 3, 1 x − x2
Figura 3.13 f 2 con f (x) = 3, 1 x − x2
106
3 Sistemi dinamici discreti: equazioni scalari ad un passo
1) R `e chiuso; 2) R `e invariante, cio`e f (R) = R; 3) esiste un intorno aperto U di R (cio`e R ⊂ U , R\U `e chiuso) tale che, per ogni intorno V di R esiste X0 ∈ V \R tale che f k (X0 ) ∈ / U per infiniti valori di k; 4) R `e minimale, cio`e non vi sono sottoinsiemi propri di R verificanti 1),2),3). La definizione di insieme repulsivo formalizza quella di un insieme R trasformato in s`e stesso da f, con la propriet` a che tutti i punti prossimi ad R e non appartenenti ad R vengono allontanati da R per infiniti valori di k. Definizione 3.49. Un equilibrio repulsivo `e un repulsore costituito da un unico punto. Osservazione 3.50. Un equilibrio `e repulsivo se e solo se `e instabile. Attenzione, la repulsivit` a non `e la negazione di attrattivit` a: ad esempio, tutte le orbite periodiche di {R, − x} oscillano attorno all’equilibrio 0 che `e stabile ma non `e n´e attrattivo, n´e repulsivo. Osservazione 3.51. Se f : I → I `e un omeomorfismo (continua, invertibile con inversa continua) ed A `e! attrattivo per il s.d.d. {I, f}, allora A `e un repulsore per il s.d.d. I, f −1 . Se f : I → I `e un omeomorfismo ed A `e un repulsore per {I, f} allora A `e ! attrattivo per I, f −1 . Osserviamo che se alle traiettorie di {I, f} si d` a un’interpretazione di evolu! zione di una grandezza nel tempo, allora le traiettorie di I, f −1 si ottengono invertendo la freccia temporale.
Figura 3.14 I = [−1, 1] , f (x) = x3 Figura 3.15 I = [−1, 1] , f (x) =
√ 3 x sign(x)
Esempio 3.52. Consideriamo il s.d.d. {I, f} con I = [−1, 1] e f (x) = x3 . Ci sono tre punti fissi: 0 e ±1; non vi sono !orbite periodiche. L’equilibrio √0 `e attrattivo per {I, f}, repulsivo per I, f −1 (esplicitamente, f −1 (x) = 3 x
3.6 Condizioni di stabilit` a basate sulle derivate
107
√ se x ≥ 0, f −1 (x) = − 3 −x se! x < 0). Gli equilibri −1 e +1 sono repulsivi per {I, f}, attrattivi per I, f −1 . Pi` u precisamente, 0 `e localmente asintoticamente stabile ! per {I, f}, mentre ±1 sono localmente asintoticamente stabili per I, f −1 .
3.6 Condizioni di stabilit` a basate sulle derivate Quando una funzione f : I → I `e dotata di una o pi` u derivate continue, `e possibile ottenere informazioni sulla stabilit` a e/o la stabilit` a asintotica di equilibri del s.d.d. {I, f} mediante semplici test. Teorema 3.53. (Condizione del primo ordine di stabilit` a) Se α `e un equilibrio per il s.d.d. {I, f} e f `e di classe C 1 , allora: |f (α)| < 1
⇒
α localmente asintoticamente stabile
|f (α)| > 1
⇒
α instabile
Prova. Sia |f (α)| < 1. Per la continuit` a di f esistono d > 0 e r < 1 tali che |f (x)| ≤ r < 1 se x ∈ (α − d, α + d). Per il teorema di Lagrange, se x, t ∈ (α − d, α + d), allora esiste x tale che |f (x) − f (t)| = f (x ) |x − t| ≤ r |x − t| . Quindi la Definizione 3.32 di stabilit` a `e verificata scegliendo δ = min {ε, d}. Inoltre, se x ∈ (α − d, α + d), allora k k−1 k k (x) − f k−1 (α) ≤ · · · ≤ rk |x − α| . f (x) − α = f (x) − f (α) ≤ r f Dunque, da limk rk = 0 segue che α `e anche localmente attrattivo e quindi localmente asintoticamente stabile. a di f esistono m > 1 e d > 0 tali che Sia ora |f (α)| > 1. Per la continuit` |f (x)| ≥ m > 1 per x ∈ (α − d, α + d). Per il teorema di Lagrange, se x = α e o appartenere a (α − d, α + d) per tutti i k, x ∈ (α − d, α + d), allora f k (x) non pu` altrimenti si avrebbe k k−1 k k (x) − f k−1 (α) ≥ · · · ≥ mk |x − α| f (x) − α = f (x) − f (α) ≥ m f che sarebbe assurdo perch´e limk mk = +∞ e |x − α| = 0.
Esempio 3.54. (Ricerca degli zeri di una funzione mediante approssimazioni successive) Se g : [a, b] → [a, b] `e una funzione continua, il problema della ricerca dei suoi zeri `e equivalente alla ricerca dei punti fissi in [a, b] della funzione f cos`ı definita: f (x) = x + g (x). Infatti, g (α) = 0 se e solo se
108
3 Sistemi dinamici discreti: equazioni scalari ad un passo
f (α) = α. Se α `e un equilibrio attrattivo allora, comunque si prenda X0 nel bacino di α, la successione definita da Xk+1 = Xk + g (Xk ) converge ad α. Se, ad esempio, g ∈ C 1 e |1 + g (α)| < 1, il Teorema 3.53 garantisce la convergenza del metodo. Se f (x) = x + g (x) `e una contrazione (vedi il paragrafo 3.4) il metodo funziona per ogni scelta di X0 in [a, b]. A volte, anche se la condizione |1 + g (x)| < 1 non `e verificata si pu` o adattare il metodo sostituendo ad f la funzione ϕ: ϕ (x) = x + ψ (x) g (x) con ψ ∈ C 1 che non si annulla in [a, b] e tale che risulti |ϕ (α)| < 1; in tal caso le approssimanti sono generate in modo ricorsivo da Yk+1 = Yk +ψ (Yk ) g (Yk ). Definizione 3.55. Diciamo che un equilibrio di un s.d.d. {I, f}, con f in C 1 (I), `e iperbolico se |f (α) | = 1, superattrattivo se f (α) = 0 e neutro se |f (α)| = 1. Tornando allo studio della stabilit` a basato sulle propriet` a delle derivate, osserviamo che il caso |f (α)| = 1 non viene chiarito dal Teorema 3.53 e, in effetti, pu` o corrispondere a situazioni molto diverse fra loro. Quando l’esame della derivata prima di f nell’equilibrio non consente di concludere, `e necessario approfondire l’analisi: cosa che faremo nel seguito. Premettiamo allo scopo la definizione seguente. Definizione 3.56. Un punto α di equilibrio per il s.d.d. {I, f} si dice • semistabile superiormente se per ogni ε > 0 esiste δ > 0 tale che α ≤ x < α + δ implica f k (x) − α < ε per ogni k ∈ N; • attrattivo superiormente se esiste η > 0 tale che α ≤ x < α + η implica limk f k (x) = α; • asintoticamente stabile superiormente se `e semistabile superiormente e attrattivo superiormente; • instabile superiormente (o repulsivo superiormente) se non `e semistabile superiormente; La definizione precedente corrisponde a limitare le propriet` a formalizzate nelle Definizioni 3.32, 3.34 e 3.34 a valori iniziali maggiori di α. Il lettore pu` o facilmente riformulare tale definizione in un intorno sinistro di α, ottenendo le definizioni di semistabilit` a, attrattivit` a, asintotica stabilit` a e repulsivit` a inferiori.
3.6 Condizioni di stabilit` a basate sulle derivate
109
Teorema 3.57. Sia α un equilibrio del s.d.d. {I, f}, con f ∈ C 1 , f (α) = 1. Allora
f convessa in un intorno di α
⇒
α semistabile inferiormente
f concava in un intorno di α
⇒
α semistabile superiormente
Se la convessit` a (rispettivamente, la concavit` a) di f `e stretta, allora α `e inferiormente asintoticamente stabile e superiormente repulsivo (rispettivamente, superiormente asintoticamente stabile e inferiormente repulsivo).
Figura 3.16 f convessa
Figura 3.17 f concava
Prova. Limitandoci al caso di funzioni convesse (f (x) ≥ f (α) + f (α) (x − α) ∀x), basta osservare che esiste δ > 0 tale che x−δ ≤ x≤ α
⇒
x ≤ f (x) ≤ α
che diventa x < f (x) < α, se la convessit` a `e stretta.
In Figura 3.16 e 3.17 illustriamo con esempi grafici il senso del teorema precedente. Il Teorema 3.57 vale anche se f non `e n´e di classe C 1 , n´e convessa (o concava) purch´e valgano le disuguaglianze evidenziate nella prova: l’argomento si applica se α = f (α) e x ≤ f (x) (rispettivamente x ≥ f (x)) in un intorno sinistro (rispettivamente destro) di α. Teorema 3.58. (Condizione di stabilit` a del secondo ordine) Sia α un equilibrio per il s.d.d. {I, f}, con f ∈ C 2 e f (α) = 1. Allora valgono le seguenti conclusioni:
110
3 Sistemi dinamici discreti: equazioni scalari ad un passo
f (α) > 0
⇒
α
f (α) < 0
⇒
α
inferiormente asintoticamente stabile superiormente repulsivo superiormente asintoticamente stabile inferiormente repulsivo
Se f (α) si annulla, si pu` o proseguire l’analisi utilizzando l’argomento basato sulla convessit`a o concavit` a di f separatamente in un intorno destro o sinistro di α, ottenendo il seguente risultato. Teorema 3.59. (Condizione di stabilit` a del terz’ordine) Sia α equilibrio per il s.d.d. {I, f} con f ∈ C 3 , f (α) = 1 e f (α) = 0. Valgono le seguenti conclusioni: f (α) > 0
⇒
α instabile
f (α) < 0
⇒
α localmente asintoticamente stabile
Il lettore provi a formulare e dimostrare una condizione di stabilit` a nel caso f ∈ C 4 se f (α) = 1
f (α) = 0
f (α) = 0.
Rimane da studiare il caso f (α) = α
f (α) = −1 .
(3.4)
Prima di procedere, si suggerisce di effettuare lo studio con il metodo grafico di qualche esempio in cui si verificano le condizioni (3.4) (come f (x) = 3x2 − x ), e di riflettere sul caso lineare affine gi` a studiato (ad esempio, f (x) = 2 − x). Nel caso lineare affine si ha stabilit` a ma non asintotica stabilit` a: pi` u precisamente, infinite orbite 2 periodiche oscillano attorno all’equilibrio. Questo fatto suggerisce di studiare il comportamento oscillante del generico s.d.d., considerando separatamente le due successioni corrispondenti agli indici pari e dispari: {X2k }k∈N , {X2k+1 }k∈N . Lemma 3.60 Sia α un equilibrio per il s.d.d. {I, f}. Allora α `e un equilibrio localmente asintoticamente stabile per {I, f} se e solo se α `e un equilibrio localmente asintoticamente stabile per {I, f 2 }.
3.6 Condizioni di stabilit` a basate sulle derivate
111
Prova. α `e un equilibrio per {I, f } dunque (Osservazione 3.15) α `e un equilibrio per {I, f 2 }. Sia ora α un equilibrio localmente asintoticamente stabile per il s.d.d. {I, f }; allora, per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ) si ha f k (X0 ) in (α − ε, α + ε) per ogni k e lim f k (X0 ) = α. In particolare, le relazioni precedenk
ti per k pari; dunque α `e localmente asintoticamente stabile per il s.d.d. & % valgono I, f 2 . Viceversa, sia α equilibrio per {I, f } e α sia localmente asintoticamente stabile per & % I, f 2 . Ne segue: per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ); allora f 2k (X0 ) ∈ (α − ε, α + ε) per ogni k e lim f 2k (X0 ) = α. Rimangono da considerare k
le iterate dispari di f : per la continuit` a di f in α esiste δ1 , 0 < δ1 ≤ δ tale che, posto ε1 = min (ε, δ), da X0 ∈ (α − δ1 , α + δ1 ) segue f (X0 ) ∈ (α − ε1 , α + ε1 ); dunque f 2k+1 (X0 ) = f 2k (f (X0 )) ∈ (α − ε, α + ε) ; lim f 2k+1 (X0 ) = lim f 2k (f (X0 )) = α. k
k
Teorema 3.61. Sia f : I → I con f ∈ C , f (α) = α e f (α) = −1. Allora 3
2f (α) + 3 (f (α))2 > 0
⇒
α localmente asintoticamente stabile
2f (α) + 3 (f (α)) < 0
⇒
α instabile
2
Prova. Posto g (x) = f 2 (x), x ∈ I, consideriamo i due s.d.d. {I, f } e {I, g}. Grazie al Lemma 3.60 ed al Teorema 3.59, `e sufficiente verificare che: 2 (ii) g (α) = 0 (iii) g (α) = −2f (α) − 3 f (α) . (i) g (α) = 1 Le tre verifiche sono un delicato ed istruttivo esercizio sulla derivazione delle funzioni composte che il lettore `e invitato a svolgere da solo prima di confrontare il risultato con i passaggi che seguono. g (x) = (f (f (x))) = f (f (x)) f (x) g (α) = f (f (α)) f (α) = f (α) f (α) = (−1) (−1) = 1 2 g (x) = f (f (x)) f (x) = f (f (x)) f (x) + f (f (x)) f (x) 2 g (α) = f (α) f (α) + f (α) f (α) = 0 2 g (x) = f (f (x)) f (x) + f (f (x)) f (x) = 3 = f (f (x)) f (x) + 3f (f (x)) f (x) f (x) + f (f (x)) f (x) 2 g (α) = −2f (α) − 3 f (α) .
112
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Esempio 3.62. Se la funzione f `e un polinomio di secondo grado ed α `e un punto fisso di f tale che f (α) = −1, allora α `e localmente asintoticamente stabile per {R, f}. Infatti, f ≡ 0 e l’affermazione segue dal Teorema 3.61. Si provi che l’attrattivit` a non `e globale. Tabella 3.1 Schema riassuntivo per lo studio della stabilit` a di un equilibrio α quando f `e dotata di derivate ⎧ ⎪ |f (α)| < 1 ⇒ α l.a.s. ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) = 1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎨ f (α) = α |f (α)| = 1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) = −1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ |f (α)| > 1 ⇒ α r.
⎧ ⎪ f (α) < 0 ⇒ s.l.a.s. & i.r. ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) > 0 ⇒ s.r. & i.l.a.s. ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) = 0 ⎪ ⎪ ⎪ ⎩
⎧ ⎪ ⎨ f (α) < 0 ⇒ α l.a.s. ⎪ ⎩ f (α) > 0 ⇒ α r.
⎧ 2 ⎪ ⎪ ⎨ 2f (α) + 3 (f (α)) > 0 ⇒ α l.a.s. ⎪ ⎪ ⎩ 2f (α) + 3 (f (α))2 < 0 ⇒ α r.
Legenda: l.a.s. = localmente asintoticamente stabile s.l.a.s. = superiormente localmente asintoticamente stabile i.l.a.s. = inferiormente localmente asintoticamente stabile r. = repulsivo s.r. = superiormente repulsivo i.r. = inferiormente repulsivo
3.7 Strategie di pesca
113
3.7 Strategie di pesca In questo paragrafo discutiamo un esempio di applicazione dei modelli dinamici allo scopo di ottimizzare i risultati di una attivit` a quali la caccia o la pesca. Consideriamo una specie ittica la cui dinamica (non disturbata da fattori esterni) sia descritta, in una opportuna unit` a di misura, dalla legge ricorsiva Xk+1 = 1, 5Xk − 0, 5Xk2 . I passi del s.d.d. sintetizzano il succedersi delle stagioni riproduttive: si suppone che la dinamica logistica (si veda l’Esempio 1.13) con la scelta dei parametri 1, 5 e 0, 5 descriva in modo soddisfacente l’effetto congiunto dell’attivit` a riproduttiva e della competizione tra individui della stessa specie. Studiamo l’effetto che hanno su questa specie due diverse strategie di pesca. PRIMA STRATEGIA - Quantit` a prefissata di pescato (in ogni passo): dopo ogni stagione riproduttiva, si cattura una fissata quantit` a di pescato b. Corrispondentemente la dinamica `e descritta da Xk+1 = 1, 5Xk − 0, 5Xk2 − b. Se 0 < b < 1/8, allora si verifica facilmente (mediante il test della derivata del Teorema 3.53) che vi sono due equilibri positivi, α1 ≥ α2 > 0 , α1,2 =
1 1√ 1 − 8b ± 2 2
con α1 stabile e attrattivo, α2 repulsivo; per evitare l’estinzione, b va scelto in modo tale che valga α2 = α2 (b) < X0 , cio`e (poich´e X0 `e un dato mentre b `e la quantit` a che possiamo scegliere) b deve verificare: ⎧ 1 ⎪ ⎨ 0 1/8 non vi sono equilibri e tutte le traiettorie portano all’estinzione: f (x) < x per ogni x implica Xk+1 < Xk per ogni k, dunque esiste il limite ma non pu` o essere finito perch´e non vi sono equilibri (vedi Teorema 3.22).
114
3 Sistemi dinamici discreti: equazioni scalari ad un passo
I)
α
2
III)
II)
α
1
α
1
I) 0 < b = 0,04 < 1/8; 2
X = 1,5 0
II) b = 1/8 < X 0 −X 0 ;
X 0 = 1,5
III) b = 0,18 > 1/8;
X = 1,5 0
Figura 3.18 Prima strategia di pesca: quantit` a prefissata
Dunque, ogni b ≤ 1/8 `e una quantit` a sostenibile di pescato per una strategia che prevede un quantitativo fisso di pescato in ogni stagione di pesca, purch´e b non sia eccessivo rispetto alla popolazione iniziale. Tuttavia quella a quantit` a prefissata di pescato `e una strategia insoddisfacente, perch´e quanto pi` u ci si avvicina alla massima quantit` a sostenibile (cio`e b si avvicina ad 1/8 e corrispondentemente α1 si avvicina ad α2 e ad 1/2) tanto pi` u alto `e il rischio che una minima fluttuazione dipendenteda fattori non controllabili porti la popolazione verso l’estinzione: se b < X0 − X02 /2, allora tutta l’evoluzione si svolge in (α2 , α1 ), tuttavia una piccola perturbazione pu` o portare nella regione {x < α2 } che si trova nel bacino di −∞. SECONDA STRATEGIA – Quantit` a proporzionale di pescato (in ciascun passo): si cerca di catturare una frazione fissata r della popolazione di pesci, con r nell’intervallo (0, 1). Corrispondentemente, il s.d.d. diventa Xk+1 = 1, 5Xx − 0, 5Xk2 − rXk , cio`e: Xk+1 = (1, 5 − r) Xk − 0, 5Xk2 .
3.7 Strategie di pesca
115
In tal caso gli equilibri risolvono 0, 5α2 = (0, 5 − r) α , dunque α1 = 1 − 2r
α2 = 0.
Posto f (x) = (1, 5 − r) x − 0, 5x2, risulta f (x) = (1, 5 − r) − x e f (0) = 1, 5 − r, cio`e lo 0 `e stabile ed attrattivo se e solo se 0, 5 < r < 2, 5. Ma a noi interessa r ∈ (0, 1) e, dunque, 0 `e instabile (che `e una buona propriet` a per la strategia in esame) se 0 < r ≤ 0, 5 (l’instabilit` a per r = 0, 5 segue dal Teorema 3.58). Studiamo l’altro equilibrio α1 = 1 − 2r. Da f (1 − 2r) = 0, 5 + r segue che • se 0 < r < 0, 5 allora α1 `e stabile; • se r > 0, 5 allora α1 `e repulsivo; • se r = 0, 5 allora α1 = α2 = 0 `e equilibrio stabile superiormente (repulsivo inferiormente). Cerchiamo equilibri stabili positivi e quindi, per 0 < r < 0, 5 , α1 = 1 − 2r `e l’unico equilibrio positivo ed `e stabile. Poich´e α1 `e attrattivo, allora Xk converge ad α1 > 0 ed il pescato P (pari a rXk ) tende a stabilizzarsi nel lungo periodo al valore P (r) = r (1 − 2r) = r − 2r 2 . La scelta di r che massimizza il pescato P nel lungo periodo `e rmax = 1/4 con Pmax = 1/8. Dunque 1/8 `e il massimo pescato sostenibile con la strategia a frazione fissa ed `e compatibile con la stabilit` a. Confronto delle due strategie di pesca. Il massimo pescato sostenibile `e lo stesso nei due casi. Tuttavia vi `e una enorme differenza: nel primo caso corrisponde ad una situazione instabile, nel secondo ad una stabile. Seguendo la seconda strategia, se il pescato supera il valore 1/8 o se la popolazione diminuisce per altri motivi, anche la quantit` a di pescato diminuisce, permettendo alla popolazione di riprendersi. Dunque la strategia a proporzione fissata ` e decisamente superiore. Tuttavia `e difficile da applicare per la difficolt` a di valutare la popolazione Xk e, di conseguenza, la quantit` a ottima di pescato Xk /4 in ciascuna stagione k. In pratica, si tenta di applicare una “efficacia” costante della pesca: ad esempio, pescare solo un numero fissato di giorni alla settimana (nella sola stagione di pesca, ben lontana dal periodo riproduttivo) dovrebbe dare un risultato proporzionale a Xk , il cui valore `e difficile misurare con precisione. Osserviamo inoltre che con i parametri da noi scelti nell’equazione di partenza il massimo pescato sostenibile Pmax `e il 25% della popolazione. In generale, anche con altri parametri, se si tenta di ottenere risultati superiori al massimo sostenibile si determina un drammatico calo della popolazione e di conseguenza un altrettanto drammatico calo nella pesca.
116
3 Sistemi dinamici discreti: equazioni scalari ad un passo
I)
II)
α2
α1
III)
α2
α1
r = 1/8 < 1/2;
X = 0,2 < α
II) r = 1/8 < 1/2;
X = 1,3 > α
III) r = 1/2;
X = 1,3
I)
0
0
0
1
1
α =α 1
2
α1
Figura 3.19 Seconda strategia di pesca: quantit` a proporzionale
Esercizio 3.12. Verificare che con altri parametri, ad esempio 1, 7 e 0, 7, o, pi` u in generale, con 1 + a ed a, con 0 < a < 2, si ottengono gli stessi risultati qualitativi dell’esempio analizzato. Esercizio 3.13. Osserviamo che modelli di strategia di pesca pi` u realistici dovrebbero tenere conto del fatto che riproduzione ed attivit` a di pesca avvengono in tempi successivi. Ad esempio, proporzione fissata pescata prima della riproduzione: Yk+1 = 1, 5 (1 − r) Yk − 0, 5 (1 − r)2 (Yk )2 ; oppure, proporzione fissata pescata dopo la riproduzione: Zk+1 = 1, 5 (1 − r) Zk − 0, 5 (1 − r) (Zk )2 . Si provi a confrontare tali dinamiche, ed a modellare la prima strategia (quantit` a prefissata) con la pesca effettuata prima oppure dopo la riproduzione.
3.8 Studio qualitativo e stabilit` a delle orbite periodiche Quando una funzione f : I → I `e dotata di una o pi` u derivate continue, `e possibile ottenere informazioni sulla stabilit` a e/o la stabilit` a asintotica di orbite periodiche del s.d.d. {I, f} mediante semplici test. Cominciamo, per semplicit` a, a considerare s.d.d. con orbite di periodo 2, esplicitando le Definizioni 3.45 e 3.46. La coppia {α0 , α1 } costituisce un’orbita 2 periodica (o 2 ciclo) per il s.d.d. {I, f} se
3.8 Studio qualitativo e stabilit` a delle orbite periodiche
α0 = α1
f (α0 ) = α1
117
f (α1 ) = α0
e quindi f 2k (α0 ) = α0
k ∈ N.
f 2k+1 (α0 ) = α1
Definizione 3.63. Il 2 ciclo {α0 , α1} `e localmente asintoticamente stabile se per ogni ε > 0 esiste δ > 0 tale che X0 ∈ (α0 − δ, α0 + δ) ⇒
X1 ∈ (α1 − δ, α1 + δ) ⇒
⎧ ⎨ f 2k (X0 ) − α0 < ε, f 2k+1 (X0 ) − α1 < ε ∀k ⎩ lim f 2k (X0 ) = α0 k ⎧ ⎨ f 2k (X1 ) − α1 < ε,
lim f 2k+1 (X0 ) = α1
⎩ lim f 2k (X1 ) = α1
lim f 2k+1 (X1 ) = α0
k
k
2k+1 f (X1 ) − α0 < ε ∀k k
cio`e, se |X0 − α0 | < δ e |X1 − α1 | < δ , posto Xk = f k (X0 ), k ∈ N, allora: • i termini pari X2k rimangono uniformemente vicini ad α0 e convergono ad α0 ; • i termini dispari X2k+1 rimangono uniformemente vicini ad α1 e convergono ad α1 . Un 2 ciclo `e detto repulsivo quando `e un insieme repulsivo. Per discutere la eventuale stabilit` a di un 2 ciclo {α0 , α1 } relativo al s.d.d. {I, f} studiamo il s.d.d. {I, g} dove g = f 2 , analogamente alla discussione svolta per un equilibrio α con f (α) = −1 (Lemma 3.60 e Teorema 3.61). Premesso che un equilibrio di f 2 corrisponde o a un equilibrio o a un 2 ciclo di f, con dimostrazione analoga a quella del Lemma 3.60, si pu` o provare il seguente Lemma 3.64 Sia f : I → I una funzione continua. Allora {α0 , α1 } `e un 2 ciclo per il s.d.d. {I, f} se e solo se ! α0 , α1 = f (α0 ) sono equilibri di I, f 2 ma non di {I, f} . Un 2 ciclo {α0 , α1 } per {I, f} `e stabile (rispettivamente attrattivo, repulsivo) se e solo se sono stabili (rispettivamente, attrattivi, repulsivi) entrambi gli ! equilibri distinti α0 ed α1 per I, f 2 . Ne segue, applicando il Teorema 3.53 agli equilibri di f 2 , che se {α0 , α1 } `e un 2 ciclo di {I, f} t.c. f 2 (α0 ) < 1 e f 2 (α1 ) < 1 allora {α0 , α1 } `e un 2 ciclo localmente asintoticamente stabile; se {α0 , α1 } `e un 2 ciclo di {I, f} t.c. f 2 (α0 ) > 1 o allora {α0 , α1 } `e un 2 ciclo repulsivo.
2 f (α1 ) > 1 (3.6)
118
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Osserviamo che la (3.6) `e una condizione la cui verifica diretta negli esempi e nelle applicazioni conduce a calcoli inutilmente laboriosi di composizione e derivazione. Invece, l’enunciato seguente, del tutto equivalente a (3.6), `e pi` u esplicito e pu` o essere utile nei calcoli. Teorema 3.65. Sia f ∈ C 1 (I) e sia {α0 , α1} un 2 ciclo per il s.d.d. {I, f}. Allora |f (α0 ) f (α1 )| < 1
⇒
{α0 , α1 } localmente asintoticamente stabile
|f (α0 ) f (α1 )| > 1
⇒
{α0 , α1 } repulsivo
Prova. Basta applicare (3.6) sfruttando la relazione
f 2 (α0 ) = f (f (α0 )) f (α0) = f (α1 ) f (α0 ) = f 2 (α1 ) .
Esempio 3.66. Determiniamo eventuali orbite 2 periodiche del s.d.d. {[0, 1] , 13x (1 − x) /4}. A tal fine, dopo aver osservato che 13 x (1 − x) = x 4
⇔
x = 0 oppure x =
9 13
esplicitiamo l’iterata seconda di f ( )( ) 13 13 13 169 13 13 f 2 (x) = x (1 − x) 1 − x(1 − x) = x (1 − x) 1 − x + x2 4 4 4 16 4 4 I suoi punti fissi, diversi da 0 e 9/13, sono le soluzioni di f 2 (x) = x, tali che f (x) = x, cio`e 2197 2 2873 221 − x + x− =0 64 64 16
⇔
x1,2
√ 17 ± 17 = . 26
Da f (x) = 13 (1 − 2x) /4, si deduce: √ √ 1 1 17−√17 17+√17 f <1 = f (−4 + 17)(−4 − 17) = 26 26 16 16 e" grazie al Teorema 3.65 possiamo concludere che l’orbita 2 periodica √ √ # 17− 17 17+ 17 `e localmente asintoticamente stabile (vedi Figura 3.20). , 26 26
3.8 Studio qualitativo e stabilit` a delle orbite periodiche 13 (x – x2) f(x) = __ 4
119
__ f(x) = (1 + 2 √ 2 ) (x – x2)
Figura 3.20 Grafici di f e della sua iterata f 2 sull’intervallo [0, 1] (due esempi)
√ Esempio 3.67. Dato il s.d.d. {[0, 1] , f}, con f (x) = (1 + 2 2) x − x2 , determiniamo le orbite 2 periodiche e studiamone la stabilit` a. Sulla base del Lemma 3.64, cerchiamo i punti fissi di '& ' √ & √ √ f 2 (x) = f (f(x)) = (1 + 2 2) (1 + 2 2)x(1 − x) 1 − (1 + 2 2)x(1 − x) = √ √ √ = (9 + 4 2)x(1 − x) 1 − (1 + 2 2)x + (1 + 2 2)x2 √ che non siano anche punti fissi di f: (1 + 2 2)x (1 − x) = x, cio`e diversi dai due valori √ 8−2 2 0 . 7 Sotto tali condizioni, con qualche calcolo, si ricava √ √ 4− 2 2+3 2 2 ⇔ x1 = oppure x2 = . f (x) = x 7 7 √ ! √ Per studiare la stabilit` a dell’orbita periodica 4 − 2 /7, 2 + 3 2 /7 √ osserviamo che da f (x) = (1 + 2 2) (1 − 2x) segue √ 4− 2 2+3√2 f = |−3| > 1 f 7 7 e grazie al Teorema 3.65 concludiamo che l’orbita `e repulsiva. Osservazione 3.68. Se {α0 , α1 , . . . , αs−1} `e un s ciclo per il s.d.d. {I, f} con f ∈ C 1 (I), allora, per j = 0, 1, . . . , s − 1, vale l’identit` a (f s ) (αj ) = f f s−1 (αj ) f f s−2 (αj ) · · · f (αj ) = = f (α0 ) f (α1 ) · · · f (αs−1 )
cio`e il numero (f s ) (αj ) non dipende da αj ma (come `e naturale) dipende da tutto il ciclo e pu` o essere valutato senza bisogno di composizioni ma solo
120
3 Sistemi dinamici discreti: equazioni scalari ad un passo
moltiplicando tra loro le derivate in tutti i punti dell’orbita s periodica. Se ne deduce, con lo stesso ragionamento utilizzato per provare il Teorema 3.65, una caratterizzazione della stabilit` a per gli s cicli. Teorema 3.69. Sia f : I → I, f ∈ C 1 (I) e {α0 , α1, . . . , αs−1} un s ciclo per il s.d.d. {I, f}. Allora |f (α0 ) f (α1 ) · · · f (αs−1 )| < 1
⇒
s ciclo loc. asintot. stabile
|f (α0 ) f (α1 ) · · · f (αs−1 )| > 1
⇒
s ciclo repulsivo
I Teoremi 3.65 e 3.69 sono di applicazione molto semplice se il ciclo `e noto. Ma la difficolt` a vera consiste nel sapere se esiste un s ciclo e nella sua effettiva determinazione. Per convincersene basta pensare che gi` anel caso di f polinomio di secondo grado, ad esempio I = [0, 1] e f (x) = 4 x − x2 , per determinare un 4 ciclo occorre trovare i punti fissi di f 4 , cio`e risolvere f 4 (x) − x = 0 che `e una equazione di sedicesimo grado!
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari Come si `e gi`a detto, non sono noti metodi generali per esplicitare leggi ricorsive non lineari. Tuttavia nei casi in cui mediante opportune trasformazioni (necessariamente non lineari) dell’incognita ci si riconduce ad un problema lineare nell’incognita trasformata, `e possibile esplicitare la soluzione utilizzando i risultati relativi ai s.d.d. lineari (un caso particolare `e stato discusso nel paragrafo 2.7). Consideriamo la successione X assegnata mediante una legge ricorsiva Xk+1 = f (Xk ) dove `e noto X0 ∈ I, I intervallo, e f : I → I `e una funzione non di tipo lineare affine. Dunque X `e una traiettoria del s.d.d. {I, f}. Teorema 3.70. Sia f : I → I una funzione continua con derivata continua, sia b una costante reale diversa da 0 e da 1, g : I → R una funzione continua che verifica l’identit` a b g(f (x)) = g(x) f (x) (3.7) e la condizione g (t) = 0 Se la funzione ψ : I → R `e definita da
∀t ∈ I.
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari
.
x
ψ (x) = X0
1 dove c = b−1 del s.d.d. {I, f}:
.
X1
X0
dt +c g(t)
121
(3.8)
dt , si ottiene l’espressione esplicita delle traiettorie g(t) Xk = ψ−1 bk ψ (X0 )
(3.9)
dove ψ−1 denota la funzione inversa di ψ 3 . Osservazione 3.71. Si osservi che dal teorema fondamentale del calcolo integrale segue che ψ ∈ C 1 (I) e ψ (x) = 1/g (x) `e sempre dello stesso segno in I perch´e g `e continua e diversa da zero nell’intervallo I. Dunque ψ `e strettamente monot`ona e quindi invertibile. Ne segue che l’identit`a (3.7) pu` o essere soddisfatta solo in intervalli in cui f `e strettamente monot`ona. Osservazione 3.72. La maggior difficolt`a che si incontra negli esempi `e risolvere l’equazione funzionale (3.7) nell’incognita g. Prova. Poich´e ψ, f ∈ C 1 (I) (cfr. Osservazione 3.71), applicando la regola di derivazione delle funzioni composte, si ottiene f (x) d ψ (f (x)) = ψ (f (x)) f (x) = = dx g (f (x)) b = = b ψ (x) . g (x)
per la (3.7)
Integrando da X0 ad x e ponendo uguale a zero la costante indeterminata, ψ (f (X0 )) − bψ (X0 ) = 0 , si ricava ψ (f (x)) = bψ (x)
(3.10)
da cui , ricordando che X1 = f (X0 ) , si ottiene c = ψ (X0 ) = ψ (X1 ) /b e ' X dt e quindi c = ψ (X1 ) − X01 g (t) X1 1 dt . c= b − 1 X0 g (t) Sostituendo Xk ad x in (3.10), tenendo conto che Xk+1 = f (Xk ), otteniamo ψ (Xk+1 ) = bψ (Xk ) 3
k∈N
La tesi del Teorema 3.70 vale, pi` u in generale, anche se g si annulla in un numero finito di punti di I, purch´e g non cambi segno e la funzione 1/g risulti integrabile in senso improprio su I.
122
3 Sistemi dinamici discreti: equazioni scalari ad un passo
e con la sostituzione k∈N
Yk = ψ (Xk ) giungiamo a
Yk+1 = bYk Y0 = ψ (X0 )
k∈N
la cui soluzione esplicita `e Yk = bk Y0 = bk ψ (X0 ) Xk = ψ−1 bk ψ (X0 ) .
da cui
Esempio 3.73. Studio della logistica di parametro a : ha (x) = a x − x2 . In questo caso l’equazione (3.7) corrisponde alla ricerca di b e g tali che g (x) = 0, b = 0, b = 1 e b g ax − ax2 = g(x) a (1 − 2x) . (3.11) Un tentativo di soluzione della (3.11) `e la ricerca di g lineare affine, cio`e g (x) = γx + δ: sostituendo tale g nella (3.11) si ottiene −bγax2 + bγax + bδ = −2aγx2 + (aγ − 2aδ) x + aδ. Uguagliando i coefficienti delle potenze corrispondenti di x, ricaviamo b=a=2
γ = −2δ.
Dunque la scelta di g lineare affine consente di risolvere solo il caso a = 2. Scegliamo γ = −1, δ = 1/2, ottenendo b = 2 e g (x) = −x+1/2. Notiamo che g si annulla in x = 1/2. Tuttavia baster` a limitarsi all’intervallo (−∞, 1/2) dove g non si annulla e non cambia segno poich´e maxR h2 (x) = 1/2 = h2 (1/2). Infatti, le traiettorie del s.d.d. diverse dalla traiettoria costante 1/2 assumono solo valori strettamente minori di 1/2. Sostituendo in (3.8), con X0 ∈ (−∞, 1/2), si ottiene . x . X1 2 dt dt (1 − 2X0 ) ψ (x) = + = ln = − ln (1 − 2x) 1 1 (1 − 2x) (1 − 2X1 ) X0 2 − t X0 2 −t 1 1 − e−ψ 2 cio`e ψ−1 (s) = 12 (1 − e−s ). A questo punto la (3.9) fornisce 1 1 1 2k 1 − (1 − 2X0 ) . Xk = − exp −2k (− ln (1 − 2X0 )) = 2 2 2 Concludendo, x=
le traiettorie della logistica h2 con dato iniziale X0 ∈ R sono Xk =
1 2k 1 − (1 − 2X0 ) 2
k∈N
3.9 Soluzioni in forma chiusa per alcuni s.d.d. non lineari
123
Il lettore verifichi che tale soluzione esplicita `e valida anche nei casi X0 ≥ 1/2 e soddisfa le propriet` a di monotonia e convergenza deducibili dallo studio qualitativo con le tecniche dei paragrafi 3.1, 3.2 e 3.3 . Il Teorema 3.70 opera in ipotesi alquanto restrittive: richiede essenzialmente f monot` ona in tutto I (si veda l’Osservazione 3.71). Per trattare il caso di f non monot` ona (ad esempio, la logistica) occorre fare degli adattamenti qualora, a differenza dell’esempio precedente, non si sappia a priori che le traiettorie del sistema dinamico sono definitivamente contenute in un intervallo di monotonia di f. Nel caso in cui 0 ∈ I e 0 `e equilibrio del s.d.d. (cio`e f (0) = 0) si possono ripetere gli argomenti della dimostrazione del Teorema 3.70, in ciascun intervallo di monotonia di f: `e utile considerare b = b (x) costante a tratti, pi` u precisamente, |b| costante e sign(b (x)) = sign(f (x)), cio`e b costante negli intervalli Ij di monotonia di f. In ciascun Ij si potr` a costruire una funzione ψj ed una sua funzione inversa ψj−1 . Sia Ψ la funzione ottenuta raccordando le ψj e sia Φ la funzione ottenuta raccordando fra loro le ψj−1 , allora (cambiando variabili) il s.d.d. {I, Φ ◦ f} pur non essendo lineare, ha una forma sufficientemente semplice per ottenere ancora delle informazioni: Yk+1 = b (Yk ) Yk k
Il modulo della soluzione si ottiene facilmente: |Yk | = |b| |Y0 |. Se, inoltre, Φ risulta pari, allora Xk = Φ (Yk ) = Φ (|Yk |) = Φ bk Ψ (X0 ) . Illustriamo in un caso particolarmente interessante le considerazioni precedenti. Esempio 3.74. Ancora sulla logistica ha . Consideriamo delle soluzioni di (3.11) del tipo g (t) = t (1 − t) che `e una funzione positiva in (0, 1). Si ottiene b a (x − x2 ) (1 − a (x − x2 )) = x (1 − x) a (1 − 2x) equivalente per x ∈ (0, 1) a b √ 1 − ax + ax2 = 1 − 2x a che `e una identit` a in x solo per (si rilegga l’enunciato del Teorema 3.70): a = 4 e b = 2, se x ∈ [0, 1/2) a = 4 e b = −2, se x ∈ (1/2, 1]
124
3 Sistemi dinamici discreti: equazioni scalari ad un passo
∀a, b con a > 0 se x = 1/2, 0, 1 . Poich´e 0 ∈ I e f (0) = 0, si ha . 0
Risulta cos`ı
x
ψ1 (x) =
dt = t (1 − t)
. 0
x
√ dt √√ = 2 arcsin x t 1−t
2 ψ1−1 (y) = sin 12 y
x ∈ [0, 1/2]
y ∈ [0, π/2] .
Inoltre π ψ2 (x) = + 2
.
x
1/2
−1 t (1 − t)
dt = π − 2 arcsin
√
x
x ∈ [1/2, 1]
2 ψ2−1 (y) = cos 12 y La conclusione si ottiene sostituendo b, ψ e ψ−1 nella (3.9).
Le traiettorie della logistica h4 con dato iniziale X0 ∈ [0, 1] sono √ 2 Xk = sin 2k arcsin X0
∀k ∈ N
(3.12) Verifichiamo la correttezza della formula trovata, ponendo per comodit` a √ A = arcsin X0 : 2 2 2 k 2 f (Xk ) = 4 sin 2k A 1 − sin 2k A = 4 sin 2k A = cos 2 A k+1 A = Xk+1 . = sin 2
In conclusione, la (3.12) fornisce esplicitamente le traiettorie. Nonostante l’apparente semplicit` a di tale espressione le traiettorie del s.d.d. {[0, 1] , h4 } presentano una sorprendente ricchezza di struttura, come vedremo nel Capitolo 4. In particolare, per quasi tutti i valori iniziali, la traiettoria {Xk } ha un andamento erratico e non periodico in [0, 1].
3.10 Esercizi di riepilogo Esercizio 3.14. Utilizzando le tecniche del paragrafo 3.6, si discuta la stabilit` a di eventuali equilibri del sistema dinamico {R, ax + b}.
3.10 Esercizi di riepilogo Esercizio 3.15. Sia data la successione 4 Yk+1 = 1 − arctan Yk π Y0 = a
125
∀k ∈ N\ {0}
Per a = 4 determinare l’andamento della successione, provare che ha limite per k → +∞ e calcolarne il valore. Per quali altri valori reali di a la successione ammette limite? Esercizio 3.16. Determinare al variare del parametro reale non negativo a il comportamento asintotico della successione 1 4 Yk+1 = Yk2 + 3 3 Y0 = a Esercizio 3.17. Al variare del parametro reale non negativo a, determinare il comportamento asintotico della successione 1 6 Yk+1 = Yk2 + 5 5 Y0 = a Esercizio 3.18. Determinare, al variare di a > 0, il limite della successione ⎧
1 ⎨ ∀k ∈ N Yk+1 = 2Yk exp − Yk 2 ⎩ Y0 = a Esercizio 3.19. Assegnati due numeri reali positivi a, b tali che a > consideri la successione Y definita per ricorrenza: ⎧
1 b ⎨ ∀k ∈ N Yk + Yk+1 = 2 Yk ⎩ Y1 = a
√ b > 0, si
ona decrescente, che Mostrare che Yk `e ben definita per ogni k, che `e monot` √ esiste il o dire nel caso Y1 = b? limite L di Yk per k → +∞ e calcolarlo. Cosa si pu` Posto k = |Yk − L|, mostrare che 2 k+1 = √k . 2 b √ 3 a meno di 10−7 . ( ) √ Esercizio 3.20. Provare che 6 + 6 + 6 + · · · = 3 .
Calcolare
Esercizio 3.21. Data g : R → R priva di punti fissi, posto f (x) = g (x) − x e Yk+1 = Yk + f (Yk ), dimostrare che se il massimo assoluto di f `e strettamente negativo, allora Yk → −∞, mentre se il minimo assoluto di f `e strettamente positivo allora Yk → +∞.
126
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Esercizio 3.22. Un tipo di batterio si suddivide in due batteri con le sue stesse caratteristiche oppure muore. Sia p la probabilit` a di suddivisione di ciascuno di tali batteri (e di tutta l’eventuale discendenza). Qual `e la probabilit` a s che la discendenza di tale batterio non si estingua mai? Esercizio 3.23. Studiare graficamente il s.d.d. {I, f } con I = [0, 1] ed 1 sin (πx). f (x) = 2π Esercizio 3.24. Studiare graficamente il s.d.d. {I, f } con I = [0, 1] ed f (x) = sin (πx). Esercizio 3.25. Mostrare che esiste α ∈ (0, 1) tale che limk→+∞ cosk x = α per ogni x ∈ R. Ricavare numericamente il valore α = 0, 73909 . . . . Suggerimento: mostrare che tutte le orbite del s.d.d. {I, cos x} sono attratte dall’unico equilibrio α. Stimare tale equilibrio e mostrare che `e stabile. Esercizio 3.26. Si studi al variare del parametro reale β la successione definita per ricorrenza Xk+1 = fβ (Xk )
con
fβ (x) = β +
√ x.
Esercizio 3.27. Dato il s.d.d. {[0, 1] , T } ove 2x 0 ≤ x < 1/2 T (x) = 2 (1 − x) 1/2 ≤ x ≤ 1 mostrare che il dato iniziale X0 = 1/7 genera una traiettoria definitivamente 3 periodica e che il s.d.d. presenta due orbite di periodo 3 entrambe instabili (Suggerimento: si studi graficamente l’equazione T 3 (x) = x ). Esercizio 3.28. (a) Assegnato il numero reale α, determinare un’espressione non ricorsiva di Xk k∈N Xk+2 = Xk+1 + Xk X1 = 1, X2 = α (b) Studiare il comportamento della successione Yk definita da Yk+1 =
1 1 + Yk
k≥2
Y2 = 1 (c) Sfruttando il punto (a) scrivere un’espressione non ricorsiva per Yk . (d) Al variare del parametro β ∈ R, studiare il sistema dinamico discreto Zk+1 =
1 1 + Zk
k≥2
Zk = β Esercizio 3.29. Studiare il s.d.d. definito da Xk+2 = (Xk+1 )5 / (Xk )6 .
3.10 Esercizi di riepilogo
127
Esercizio 3.30. a) Studiare i s.d.d. Xk+1 =
√ 1 + Xk
Xk+1 = 1 +
1 Xk
con X0 > 0 .
b) Provare che tutte le traiettorie dei due s.d.d. convergono allo stesso equilibrio (in modo monot` ono nel primo caso, oscillando nel secondo), cio`e vale la seguente identit` a tra un radicale iterato ed una frazione continua: * + ( √ 1 1+ 1 + 1+ 1 +··· = 1 + . 1 + 1+ 1 1 1+···
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Gran parte di questo capitolo `e dedicato allo studio qualitativo del s.d.d. associato alla crescita logistica discreta, sia per l’importanza di tale modello matematico, sia perch´e, come vedremo in dettaglio, la dinamica ad esso corrispondente `e simile a quella di molti altri s.d.d. non lineari unimodali. In tale studio incontreremo equilibri, orbite periodiche, biforcazioni e, in alcuni casi, anche comportamenti non banali che vengono definiti dinamiche caotiche. Alcuni elementari nozioni di topologia, utili per la comprensione di questo capitolo, sono richiamate in Appendice E.
4.1 Dinamica della crescita logistica Consideriamo la crescita di una popolazione con tasso riproduttivo costante che `e un esempio rilevante di modello matematico discreto non lineare ad un passo. Dalle osservazioni empiriche `e chiaro che non esistono esempi di crescita illimitata di alcuna specie biologica. Come abbiamo gi` a ricordato nel primo capitolo (Esempi 1.12, 1.13), il modello malthusiano di crescita descritto dal sistema dinamico lineare Xk+1 = aXk che fornisce successioni a crescita esponenziale, necessita di correzioni poich´e, anche trascurando la competizione con altre specie e supponendo le risorse alimentari dell’habitat come illimitate, la sovrappopolazione determina sempre fattori di competizione intraspecifica. Per tenere conto di tali fenomeni sociali (una maggiore aggressivit`a ed una diminuita attitudine alla riproduzione) occorre introdurre nel modello dei termini che si oppongono alla crescita indiscriminata e contribuiscono a limitare le dimensioni della popolazione entro valori sostenibili dall’ambiente. La pi` u semplice correzione che si pu` o adottare `e la modifica di Verhulst al modello di Malthus, che consiste nel sostituire la relazione lineare con un polinomio di secondo grado, ottenendo in tal modo il modello di crescita logistica: Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
130
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Xk+1 = aXk (1 − Xk )
0≤a≤4
(4.1)
Il polinomio ax (1 − x) prende il nome di funzione logistica o mappa logistica il cui grafico prende il nome di parabola logistica. Nel modello (4.1), per piccole popolazioni prevale il termine lineare (di coefficiente positivo), mentre per popolazioni di grandi dimensioni prevale il termine quadratico di coefficiente negativo (piccolo o grande hanno un significato relativo rispetto ai parametri in gioco e possono essere precisati quantitativamente). Si noti che la (4.1) si pu` o riscrivere come Xk+1 = ha (Xk ) dove ha (x) = ax − ax2 , 0 ≤ a ≤ 4, e che se x ∈ [0, 1] allora ha (x) ∈ [0, 1]. Osserviamo esplicitamente che, per comodit`a di calcolo, si `e effettuata una normalizzazione delle unit` a di misura, cio`e si considerano solo valori della popolazione compresi tra 0 e 1. Dunque il coefficiente a (positivo per il suo significato biologico) non deve superare il valore 4 affinch´e l’immagine di [0, 1] mediante il polinomio ha sia contenuta in [0, 1] e, quindi, sia possibile il calcolo delle iterate a partire da ogni dato X0 ∈ [0, 1] ottenendo Xk ∈ [0, 1] per ogni k ∈ N.
1
0
1 Figura 4.1 Grafico di ha con a = 1/2, 1, 2, 3, 4
4.1 Dinamica della crescita logistica
131
Come nel modello di Malthus, anche nel modello logistico, quando `e fissato il valore iniziale della popolazione, tutta l’evoluzione `e univocamente determinata: diciamo che si tratta di modelli deterministici. Tuttavia, nel caso della crescita logistica, non si ha pi` u una descrizione qualitativa semplice dell’andamento di Xk , n´e tantomeno si pu` o pensare a crescite indefinite, o estinzioni per ogni dato iniziale e per ogni scelta del parametro positivo a; intervengono invece oscillazioni ed altri fenomeni con una struttura molto complicata. Anche senza un’analisi teorica, si pu` o capire gi` a da semplici esperimenti con il metodo grafico, che si possono osservare molti tipi di comportamento qualitativo. Il lettore `e invitato a fare degli esperimenti grafici sia a mano, sia al computer, prima di proseguire (per generare le ragnatele si pu` o utilizzare il Notebook relativo proposto nell’Appendice H). Cerchiamo di dare una idea di alcuni fenomeni che possono presentarsi, senza alcuna pretesa di completezza; infatti, nonostante la formulazione del modello sia elementare, la descrizione di tutte le sue soluzioni nasconde problemi tutt’altro che elementari, e talora non risolti. Consideriamo pertanto il s.d.d. {[0, 1] , ha} con a ∈ [0, 4]. Si pu` o osservare graficamente (e si pu` o dimostrare analiticamente) che, al crescere del parametro a il comportamento qualitativo delle traiettorie cambia radicalmente: il nostro scopo `e quello di avere un’idea complessiva del quadro delle traiettorie per tutti i valori di a. Per valori piccoli di a l’analisi `e elementare, come vedremo nel seguito, ma al crescere di a la situazione `e decisamente pi` u complessa e richiede l’introduzione di nuovi strumenti. Il grafico di ha `e una parabola di vertice (1/2, a/4), concava e simmetrica rispetto alla retta verticale di equazione x = 1/2. Risolvendo l’equazione ha (x) = x si deduce che il s.d.d. {[0, 1] , ha} ha sempre il punto fisso 0: tale punto fisso `e unico se 0 ≤ a ≤ 1, invece, se 1 < a ≤ 4, ha presenta anche il punto fisso αa = (a − 1) /a. Inoltre, ai valori iniziali 1 e (se 1 ≤ a ≤ 4) 1/a corrispondono traiettorie definitivamente costanti, giacch´e ha (1) = 0 e ha (1/a) = αa.
Figura 4.2 Alcune ragnatele per ha a partire da X0 = 1/2 , per a = 1/2 ed a = 1
132
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Sulla base di quanto detto possiamo effettuare un’analisi qualitativa preliminare del quadro delle fasi di {[0, 1] , ha} al variare di a. (I) Se a ∈ [0, 1], vi `e il solo equilibrio 0; esso `e globalmente asintoticamente stabile, cio`e tutte le traiettorie con dato iniziale X0 ∈ [0, 1] sono attratte da 0 che `e equilibrio stabile. Infatti Xk+1 < Xk e , a ∈ [0, 1)
⇒
|ha (0)| = a < 1
a=1
⇒
ha (0) = 1, ha (0) = −2a < 0
e la conclusione segue dai Teoremi 3.22, 3.53 e 3.58. (II) Se 1 < a ≤ 4 vi sono due equilibri: 0 e αa . Precisamente 0 `e instabile (ha (0) = a > 1) e: • se 1 < a < 3, allora αa `e stabile ed attrattivo (|ha (αa)| = |2 − a| < 1) ed il bacino di attrazione di αa `e (0, 1); • se a = 3, allora h3 (α3 ) = −1 e dunque α3 `e stabile ed attrattivo per l’Esempio 3.62; • se 3 < a ≤ 4 anche αa `e instabile (|ha (αa)| = a − 2 > 1). (III) Se 3 < a ≤ 4 compare un’orbita di periodo 2. Infatti, h2a (x) = x ha quattro soluzioni distinte di cui 2 sono 0 e αa (i punti fissi di ha ) e le altre due appartengono all’unica traiettoria periodica del s.d.d.. √ (IV) Se 3 < a < 1 + 6 = 3, 44949..., l’orbita 2 periodica `e stabile ed attrattiva, il motivo della stabilit` a si vedr` a in seguito. √ (V) Se a ≥ 1 + 6, l’analisi `e molto pi` u delicata e sar` a oggetto dei paragrafi successivi. Proviamo una proposizione che sar` a utile nel seguito e comunque chiarisce che la parte significativa della dinamica associata ad ha si svolge in [0, 1]. Teorema 4.1. Consideriamo la mappa logistica ha in tutto R , con a > 1. Allora tutti gli eventuali equilibri e le eventuali traiettorie periodiche di periodo ≥ 2 del s.d.d. {R, ha } sono contenute in [0, 1]. Prova. La parte relativa agli equilibri `e una banale conseguenza dell’ipotesi a > 1. Se s `e un intero ≥ 2, allora, poich´e 0 `e un punto fisso di ha per ogni a e ha (1) = 0, la tesi relativa alle orbite periodiche `e dimostrata se si prova che tutte le soluzioni di {x ∈ R : hsa (x) = x} sono contenute in [0, 1]. Proviamo questo fatto. Se x < 0, allora ha (x) < x < 0 e per ogni s ≥ 1 hsa (x) = ha hs−1 (x) < hs−1 (x) < · · · < x. a a Se x > 1 allora ha (x) < 0 e per ogni s ≥ 2 (ha (x)) < hs−2 (ha (x)) < · · · < ha (x) < 0 < x. hsa (x) = ha hs−2 a a
Il risultato appena dimostrato ci assicura che se a > 1, allora lo studio delle iterate di ha pu` o essere effettuato solo in [0, 1] senza perdere nulla della struttura delle orbite in tutto R. In particolare, se {R, ha } presenta orbite periodiche, allora tali orbite sono tutte contenute in [0, 1].
4.2 Il teorema di Sharkovsky
133
4.2 Il teorema di Sharkovsky ` immediato Consideriamo il s.d.d. {R, f} dove f (x) = −3x2 + 5x/2 + 1/2. E verificare che {0, 1/2, 1} `e un’orbita periodica di periodo 3: f (0) = 1/2, f (1/2) = 1, f (1) = 0.
_ 1 2
_ 1 2
1
% & Figura 4.3 Orbita periodica {0, 1/2, 1} del s.d.d. R, −3x2 + 5x/2 + 1/2
L’esempio precedente `e stato costruito determinando l’unica funzione f del tipo ax2 + bx + x passante per i punti (0, 1/2), (1/2, 1), (1, 0). Ci si potrebbe chiedere quali e quante altre orbite periodiche vi sono per {R, f} . Una prima risposta `e fornita dal seguente sorprendente risultato. Teorema 4.2. Se un s.d.d. {I, f}, con I intervallo contenuto in R, ammette un’orbita periodica di periodo 3 , allora {I, f} ha anche orbite periodiche di periodo s, per ogni s intero positivo. Il Teorema 4.2, gi`a sorprendente in s´e, `e solo una piccola parte delle sorprese relative alle orbite periodiche: si tratta di parte dell’informazione contenuta nell’elegante risultato dimostrato nel 1964 da O.M. Sharkovsky1 , che enunciamo nel seguito. Sottolineiamo che l’aspetto pi` u interessante nella ricchezza di struttura del quadro delle traiettorie di {I, f} `e che la tesi segue dalla sola ipotesi di continuit` a per f. Definizione 4.3. Si dice ordinamento di Sharkovsky dei numeri naturali, il seguente 1 ≺ 2 ≺ 22 ≺ 23 ≺ 24 ≺ · · · ≺ 9 · 2n ≺ 9 · 22 ≺9·2 ≺9 1
≺ 7 · 2n ≺ 7 · 22 ≺7·2 ≺7
Oleksandr Mikolaiovich Sharkovsky, 1936- .
≺ 5 · 2n ≺ 5 · 22 ≺5·2 ≺5
≺ 3 · 2n ≺ · · · ≺ 3 · 22 ≺ · · · ≺ 3·2 ≺ ··· ≺3
134
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
La relazione a ≺ b significa che a precede b nell’ordinamento. I primi puntini sottintendono tutte le potenze di 2 in ordine crescente, i puntini successivi denotano tutte le potenze di 2 in ordine decrescente a fattore con tutti i numeri dispari diversi da 1 in ordine decrescente (ad esempio, 7 · 24 ≺ 9 · 23 ). Ogni numero naturale compare esattamente una ed una sola volta nell’ordinamento di Sharkovsky. Teorema 4.4. (di Sharkovsky) Se f : I → I `e una funzione continua sull’intervallo I ⊆ R ed esiste un’orbita periodica di minimo periodo s per il s.d.d. {I, f}, allora per ogni m ≺ s secondo l’ordinamento di Sharkovsky il s.d.d. {I, f} ammette un’orbita periodica di minimo periodo m. Osservazione 4.5. Il Teorema 4.4 `e molto fine nel senso che si possono fornire esempi con orbite di periodo 5 senza orbite di periodo 3 e, pi` u in generale, se n ≺ s, si possono avere orbite di periodo n senza alcuna orbita di periodo s. Esempio 4.6. Verifichiamo graficamente che il s.d.d. {[0, 1] , h3,1 } presenta due equilibri ed una sola orbita periodica di periodo 2, ma che non vi `e alcuna altra orbita periodica coerentemente con il Teorema 4.4.
Figura 4.4. Alcune iterazioni della logistica h3,1 : h3,1 , (h3,1 )2 , (h3,1 )4 .
Il primo grafico di Figura 4.4, mostra che vi sono due soli equilibri: 0 e 21/31 (gli equilibri non possono essere pi` u di 2 perch´e h3,1 (x) = x `e un’equazione di secondo grado). Dall’esame del secondo grafico, otteniamo quattro punti 2 periodici: 2 sono gli equilibri gi` a noti (0 e 21/31), gli altri due punti corrispondono necessariamente ad un’orbita 2 periodica. Dall’esame del terzo grafico, si evidenziano solo quattro intersezioni con la bisettrice del primo quadrante, cio`e non si ha evidenza di altre radici diverse dalle 4 gi` a note, pertanto non vi sono orbite di minimo periodo pari a quattro. Ma allora non ve ne sono di alcun altro periodo perch´e 4 precede tutti i numeri diversi da 1 e 2 nell’ordinamento di Sharkovsky. A precisazione dell’argomento usato nell’esempio precedente, occorre ricordare che, grazie al Teorema 4.1, se a > 1 allora tutti gli eventuali punti periodici di ha sono situati nell’intervallo [0, 1] il che ci consente di tralasciare lo studio della porzione di grafico in R\ [0, 1].
4.2 Il teorema di Sharkovsky
135
Per la dimostrazione completa del Teorema di Sharkovskii rinviamo a [3]. Qui proviamo solo il Teorema 4.2 che ne costituisce un caso particolare: alla dimostrazione del premettiamo due lemmi. Lemma 4.7 Siano I = [a, b] un intervallo chiuso e limitato, f : I → R una funzione continua. Se f (I) ⊃ I allora esiste un punto fisso di f su I. Prova. Poich´e f (I) ⊃ I esistono c, d ∈ I tali che f (c) = a e f (d) = b. Se c = a oppure d = b il lemma `e dimostrato. Altrimenti si ha c, d ∈ (a, b): in questo caso, posto g (x) = f (x) − x abbiamo anche g (c) = f (c) − c = a − c < 0 < b − d = f (d) − d = g (d) ; grazie alla continuit` a di g, per il teorema di esistenza degli zeri esiste t nell’intervallo di estremi c e d tale che g (t) = 0 cio`e f (t) = t.
La dimostrazione del lemma seguente `e lasciata al lettore. Lemma 4.8 Se U e V sono due intervalli chiusi e limitati ed f : U → R `e continua, allora V ⊂ f (U ) implica l’esistenza di un intervallo U0 ⊂ U tale che f (U0 ) = V . Osservazione 4.9. Il Lemma 4.7 non si estende al caso di funzioni di pi` u variabili: si pu` o dare l’esempio di una funzione f : B → Rn , B ⊆ Rn , con B compatto, non vuoto e tale che f (B) ⊃ B ma con f che non possiede punti fissi in B (si veda l’Esempio 4.10). In particolare, viene meno il Teorema 4.2 nel caso vettoriale, ossia in tal caso il periodo 3 non implica necessariamente l’esistenza di tutti gli altri periodi interi. ! Esempio 4.10. Sia D = (x, y) ∈ R2 : x2 + y2 = 1, y ≥ 0 ed f : D → R2 definita in coordinate polari da f (ρ, θ) = (ρ, 2θ + π/2). Allora D ⊂ f (D) ma f non ha punti fissi. Diamo per completezza la dimostrazione del Teorema 4.2 che pu`o essere omessa in una prima lettura senza pregiudicare la comprensione del seguito. Prova. 4.2. Sia {a, b, c} l’orbita 3 periodica dove a < b < c. Supponiamo f (a) = b, f (b) = c e f (c) = a (l’altro caso `e analogo). Siano I0 = [a, b] e I1 = [b, c]. Allora per il teorema dei valori intermedi I1 ⊂ f (I0 ) ,
I0 ⊂ f (I1 ) ,
I1 ⊂ f (I1 ) .
Ma I1 ⊂ f (I1 ) implica, per il Lemma 4.7, l’esistenza di un punto fisso in I1 , dunque esiste un equilibrio (cio`e un’orbita di periodo 1). Sia n > 1 ed n = 3: vogliamo mostrare l’esistenza di un’orbita n periodica.
136
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Figura 4.5. Intervalli I0 e I1
Definiamo a tal fine gli intervalli chiusi Jk , k = 0, 1, . . . , n, tali che (1) I1 = J0 ⊃ J1 ⊃ J2 ⊃ · · · ⊃ Jn (2) f (Jk ) = Jk−1 k = 1, 2, . . . , n − 2 k = 1, 2,. . . , n − 2 (3) f k (Jk ) = I1 (4) f n−1 (Jn−1 ) = I0 (5) f n (Jn ) = I1 . Prima mostriamo che se esistono i Jn e sono verificate le condizioni (1)-(5), allora esiste un’orbita periodica di minimo periodo n. Poi proveremo l’esistenza dei Jn . La (5) ed il Lemma 4.7 assicurano l’esistenza di un punto p ∈ Jn tale che f n (p) = p. Utilizziamo le (1)-(4) per mostrare che p ha minimo periodo n. Per la (1) p ∈ I1 = [b, c] e per la (3) f k (p) ∈ I1
k = 0, 1, . . . , n − 2
mentre per la (4) f n−1 (p) ∈ I0 = [a, b]. Deve essere p = c, altrimenti si avrebbe f (p) = f (c) = a ∈ / I1 e poich´e f n−1 (p) `e l’unico elemento dell’orbita che non appartiene ad I1 ne seguirebbe n = 2 in contraddizione con il periodo 3 di c. / I1 implica Deve essere p = b; altrimenti, per assurdo, p = b e f 2 (p) = f 2 (b) = a ∈ n = 3, conclusione contraddittoria perch´e abbiamo supposto n = 3. Riassumendo, p ∈ (b, c), f n−1 (p) ∈ I0 = [a, b] che `e disgiunto da (b, c). Dunque o avere minimo periodo n − 1. f n−1 (p) = p, cio`e p non pu` Se il minimo periodo di p fosse strettamente minore di n − 1, allora la (3) ed il fatto che p = b e p = c, implicherebbero che la traiettoria di p sia contenuta interamente in (b, c), ma questo contraddice la (4). Dunque il minimo periodo di p `e n. Per mostrare l’esistenza dei Jn : sia n > 1 fissato. Costruiamo gli intervalli (dapprima solo fino a Jn−2 ): poniamo J0 = I1 . Poich´e f (I1 ) ⊃ I1 , abbiamo f (J0 ) ⊃ J0 e per il Lemma 4.8 esiste J1 ⊂ J0 tale che f (J1 ) = J0 . Allora J1 ⊂ J0 implica f (J1 ) ⊃ J1 e si ripete il ragionamento fino a k = n − 2, ottenendo le (1) e (2) fino ad n − 2. Per provare la (3), osserviamo che dalla (2) si ha, per k = 1, 2, . . . , n − 2, f 2 (Jk ) = f (f (Jk )) = f (Jk−1 ) = Jk−2 f 3 (Jk ) = f f 2 (Jk ) = f (Jk−2 ) = Jk−3
(k ≥ 2) (k ≥ 3)
· · · = · · · k−1 (Jk ) = f f k−2 (Jk ) = f Jk−(k−2) = f (J2 ) = J1 f f k (Jk ) = f f k−1 (Jk ) = f (J1 ) = J0 = I1 Per provare la (4) siamo ancora liberi di scegliere Jn−1 . Osserviamo che
4.2 Il teorema di Sharkovsky
137
f n−1 (Jn−2 ) = f f n−2 (Jn−2 ) = f (I1 ) e, da f (I1 ) ⊃ I0 , segue f n−1 (Jn−2 ) ⊃ I0 ; allora per il Lemma 4.8 esiste Jn−1 ⊂ Jn−2 tale che f n−1 (Jn−1 ) = I0 . Infine f n (Jn−1 ) = f f n−1 (Jn−1 ) = f (I0 ) e f (I0 ) ⊃ I1 implica f n (Jn−1 ) ⊃ I1 , nuovamente per il Lemma 4.8 esiste Jn ⊂ Jn−1 tale che f n (Jn ) = I1 cio`e la (5).
Omettiamo la dimostrazione del Teorema 4.4 (assai tecnica, bench´e elementare) che utilizza le stesse idee della dimostrazione del Teorema 4.2 . Pur senza provare il Teorema di Sharkovsky, osserviamo che, nota l’esistenza di un’orbita periodica per {I, f} di minimo periodo qualsiasi, si pu` o provare facilmente l’esistenza di un punto fisso con f continua, I intervallo. Infatti, se I `e un intervallo chiuso e limitato, l’esistenza del punto fisso segue dal Corollario 3.21, altrimenti supposto f (x) = x per ogni x ∈ I, sono possibili solo due casi: f (x) > x per !ogni x, oppure f (x) < x per ogni x. Ma se α, f (α) , f 2 (α) , . . . , f s−1 (α) `e un’orbita s periodica, con s > 1, allora risulta nel primo caso α < f(α) < f 2 (α) < · · · < f s (α) = α e nel secondo α > f(α) > · · · > f s (α) = α, conclusioni comunque contraddittorie. Concludiamo con un risultato il cui significato qualitativo `e il seguente: se la funzione f “non oscilla troppo” allora, per ogni fissato intero s, il s.d.d. {I, f} pu` o avere al pi` u un numero finito di orbite di periodo esattamente s (tuttavia pu` o avere infinite orbite periodiche come `e il caso dell’esempio presentato all’inizio del paragrafo). Definizione 4.11. Sia f : I → I di classe C 3 . Chiamiamo derivata schwarziana di f, denotata con Df, la funzione (definita in tutti i punti x di I tali che f (x) = 0): f (x) 3 (Df) (x) = − f (x) 2
f (x) f (x)
2 .
Teorema 4.12. (D. Singer, 1978) Sia {I, f} un s.d.d. con f ∈ C 3 (I) ed f si annulli al pi` u in un numero finito di punti x1 , . . . , xm . Sia anche (Df)(x)< 0, ∀x ∈ I\ {x1 , . . . , xm }. Allora, per ogni s ≥ 1, (I, f) pu` o avere solo un numero finito di orbite di periodo s. Prova. Fissato s ∈ N\ {0}, studiamo f s . Si ha f s ∈ C 3 e (vedi l’Esercizio 4.2) D (f s ) (x) < 0
x ∈ I\ {x1 , . . . , xm } .
Per mostrare la tesi basta provare che f s ha solo un numero finito di punti fissi, cio`e f s (x) = x ha un numero finito di soluzioni; dunque, per il teorema di Rolle, `e sufficiente verificare che l’equazione (f s ) (x) = 1 ha un numero finito di soluzioni in I.
138
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Se questo fosse falso, allora, sempre per il Teorema di Rolle, (f s ) dovrebbe avere una infinit` a di punti con derivata nulla ed una infinit` a di punti di minimo locale, e in tali punti x si avrebbe
(f s ) (x) = 0
(f s ) (x) ≥ 0;
allora D (f s ) (x) < 0 implica (f s ) (x) < 0 e (f s ) (x) > 0. Dunque (f s ) `e negativa in infiniti punti x intercalati ad infiniti punti x in cui vale 1. Ne segue l’esistenza di infiniti punti di I in cui (f s ) si annulla, cio`e infiniti punti in cui si annulla f , in contraddizione con quanto supposto precedentemente.
Il lettore `e invitato a riflettere sul fatto che la tesi del Teorema 4.12 `e banalmente vera per ogni f polinomio di secondo grado. Osservazione 4.13. Se f : I → I, f ∈ C 3 con f (α) = α, f (α) = −1 e (Df) (α) < 0, allora 1 2 2f (α) + 3 (f (α)) < 0 (Df) (α) = − 2 cio`e α `e un equilibrio localmente asintoticamente stabile per il Teorema 3.61. Esercizio 4.1. Determinare i parametri a, b e c in modo tale che tra le traiettorie del s.d.d. {R, f } con f (x) = ax2 + bx + c vi sia il 3 ciclo {1, 2, 3}. Esercizio 4.2. Verificare che, se f, g ∈ C 3 , allora la derivata schwarziana della composizione f ◦ g `e 2 D (f ◦ g) (x) = (Df ) (g (x)) · g (x) + (Dg) (x) . Esercizio 4.3. Provare il Lemma 4.8.
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. Con l’espressione famiglia ad un parametro di funzioni intendiamo una collezione di funzioni fa ciascuna delle quali `e individuata da un valore numerico del parametro a che varia in un insieme numerico A. Analogamente, una famiglia ad un parametro di sistemi dinamici discreti `e una collezione {I, fa } di s.d.d. dove fa : I → I e {fa }a∈A `e una famiglia ad un parametro di funzioni definite nello stesso intervallo I. Ad esempio, l’insieme delle funzioni lineari da R in R `e una famiglia ad un parametro di funzioni fa (x) = ax ed a ∈ R `e il parametro in questione. La corrispondente famiglia di s.d.d. {R, fa } `e stata studiata in dettaglio nel Capitolo 2. L’esempio pi` u importante che vogliamo ulteriormente analizzare `e quello della dinamica logistica discreta ha , con a ∈ [0, 4].
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d.
139
Spesso i fenomeni fisici manifestano una dipendenza continua dai parametri che figurano nelle leggi che li descrivono. Tuttavia in alcuni casi si manifestano grandi cambiamenti in corrispondenza a piccole variazioni dei parametri, come efficacemente si intende dire nel linguaggio comune mediante l’espressione “la goccia che fa traboccare il vaso”. Lo studio delle biforcazioni si occupa appunto di quelle particolari gocce: cio`e studia i valori dei parametri che determinano cambiamenti qualitativi rilevanti. Studiamo in qualche esempio come varia il quadro delle traiettorie di una famiglia ad un parametro di s.d.d., al variare di tale parametro. Per fare questo si cerca di riassumere tutte le informazioni qualitative in un unico diagramma, detto diagramma di biforcazione di {I, f}: nell’insieme A × I si riportano i punti fissi di fa in funzione di a, si determinano i valori di a per cui tali punti sono attrattivi e si rappresenta graficamente questa situazione mediante frecce verticali che puntano agli equilibri; nelle regioni in cui gli equilibri sono repulsivi le frecce verticali se ne allontanano, con gli ovvi cambiamenti si rappresentano gli equilibri nel caso semistabile; si completa il diagramma con frecce verticali che siano coerenti con la dinamica nelle regioni prive di punti fissi. Esempio 4.14. Rappresentiamo in un diagramma di biforcazione la dinamica associata alla famiglia fa (x) = ax di funzioni lineari, a ∈ R. Se |a| < 1, il s.d.d. ha un solo equilibrio, 0, che `e stabile e globalmente attrattivo; se |a| > 1, allora 0 `e ancora l’unico punto di equilibrio, ma `e repulsivo;
a = −1 Figura 4.6 Diagramma di biforcazione di {R, ax}
140
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
se a = 1, vi sono infiniti equilibri stabili, n´e attrattivi, n´e repulsivi; se a = −1, si hanno infinite orbite periodiche {α, −α}. Quando il valore di a cresce da −∞ a −1 (−1 escluso) la dinamica resta qualitativamente invariata, analogamente se a varia in (−1, 1) o se a varia in (1, +∞); ma quando a attraversa il valore −1 o il valore +1 si ha un cambiamento repentino. ` naturale cercare di formalizzare il fenomeno che corrisponde all’esistenza di E un valore a0 del parametro tale che la dinamica corrispondente ad a < a0 sia diversa da quella corrispondente ad a > a0 . Definizione 4.15. Sia fa : I → I una famiglia ad un parametro a ∈ A di funzioni, I intervallo di R. Un valore a0 interno ad A si dice di biforcazione per {I, fa } se esiste ε > 0 tale che il numero dei punti di equilibrio sommato al numero dei punti distinti appartenenti ad orbite periodiche `e costante in (a0 − ε, a0 ) e in (a0 , a0 + ε), ma le due costanti differiscono. Esempio 4.16. Sia I = R, fa (x) = aex , a ∈ R+ . Dall’analisi grafica si deduce che: • se 0 < a < e−1 , allora fa ha due punti fissi x0 e x1 , con 0 < fa (x0 ) < 1 < fa (x1 ) dunque x0 `e stabile e attrattivo, x1 `e repulsivo. Il bacino di attrazione di x0 `e (−∞, x1); • se a = e−1 , allora fa ha un unico punto fisso x = 1, che risulta inferiormente stabile ed attrattivo, superiormente instabile; il bacino di attrazione di x `e (−∞, 1); • se a > e−1 , allora non vi sono punti fissi. Precisamente, da f (x) > x per ogni x ∈ R, si deduce che per ogni dato iniziale reale x risulta limk f k (x) = +∞ cio`e non esistono punti fissi: dunque, per il teorema di Sharkovsky, se a > e−1 non esistono neanche orbite periodiche. L’analisi si pu` o anche effettuare mediante il cambio di parametro b = ln a, studiando la famiglia gb (x) = ex+b = fa (x) al variare di b in R. Con tale b =-1,5
b=-1
b=0
Figura 4.7 Ragnatele relative ai s.d.d. {R, gb }, gb (x) = ex+b , b = −1, 5; −1; 0
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d.
141
scelta a = e−1 corrisponde a b = −1. In tal modo, scelti due valori b0 e b1 del parametro, i grafici di gb0 e gb1 si ottengono l’uno dall’altro mediante una traslazione orizzontale di b1 − b0 . Si ottengono gli stessi risultati qualitativi con il valore di biforcazione b0 = −1 che corrisponde al valore di biforcazione a0 = e−1 .
x
x
+1 +1 -1
b
O
e-1 a
Figura 4.8 Diagrammi di biforcazione: {R, fa } ,{R, gb }, fa (x) = aex , gb (x) = ex+b
O
1
2
Figura 4.9 Diagramma di biforcazione di {R, a arctan x}, a ∈ [0, 2]
Esempio 4.17. Sia fa : R → R , fa (x) = a arctan x con a ∈ [0, 2]. Se 0 ≤ a ≤ 1, α = 0 `e l’unico equilibrio globalmente asintoticamente stabile; se 1 < a ≤ 2, lo 0 `e ancora equilibrio ma diventa repulsivo ed appaiono due altri equilibri, ±α, entrambi localmente asintoticamente stabili: il bacino di attrazione di quello positivo `e (0, +∞), il bacino di attrazione di quello negativo `e (−∞, 0).
142
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Per effettuare una analisi elementare dei punti di biforcazione di un s.d.d. {I, f}, consideriamo in A × I l’insieme dei punti fissi e delle orbite periodiche: ∞ 7
{(a, α) ∈ A × I : fas (α) = α} .
s=1
Sotto ipotesi ragionevoli circa la dipendenza di fa da a, tale insieme sar`a un’unione di curve regolari, le cui intersezioni hanno tangenti distinte e sono isolate. In tale situazione, in base ad una analisi locale delle intersezioni, i punti di biforcazione possono essere suddivisi in tre classi: 1) una curva si ripiega in avanti o all’indietro (vedi Esempio 4.16). Questo caso `e denominato biforcazione sella-nodo. 2) Due curve si incontrano in un punto in un intorno del quale sono grafici in base a. Questo caso `e denominato biforcazione transcritica. Come vedremo, la logistica ha presenta una biforcazione transcritica in a = 1. 3) Due curve si intersecano in un punto in cui una delle due si ripiega in avanti o indietro (forchetta). La dinamica del s.d.d. associato pu` o corrispondere a una variazione del numero di equilibri (biforcazione a forchetta, vedi Es. 4.15, a0 = 1) oppure ad un raddoppio di periodo (vedi ha , a0 = 3).
1
1
1
Figura 4.10 Parabole logistiche ha su R , a = 1/2, 1, 2
Ad esempio (si veda la Figura 4.10), possiamo considerare la famiglia ha di mappe logistiche (senza limitarci all’intervallo [0, 1]) come trasformazioni di R in s`e stesso al variare del parametro a, cio`e i s.d.d. {R, ha} limitatamente ai valori del parametro a compresi in [0, 4): • se 0 < a < 1, allora vi sono due equilibri distinti: 0 localmente asintoticamente stabile e α = (a − 1) /a, che `e repulsivo; • se a = 1, allora i due equilibri si riducono ad uno solo, lo 0, che `e superiormente stabile ed attrattivo ed inferiormente instabile e repulsivo; • se 1 < a < 3, allora 0 diventa repulsivo ed appare un altro equilibrio αa che appartiene a (0, 1) ed `e localmente asintoticamente stabile; dunque a = 1 `e valore di biforcazione (transcritica);
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d.
143
• se a = 3, allora αa = 2/3 `e localmente asintoticamente stabile (cfr. l’Esempio 3.62) dato che h3 (α3 ) = −1; `e facile convincersi mediante simulazioni numeriche che α3 attrae le orbite molto pi` u lentamente di αa con 1 < a < 3; • se a > 3, allora anche αa `e repulsivo (h (αa ) = 2 − a < −1) e compare un’orbita 2 periodica che si mantiene stabile ed attrattiva nel’intervallo √ 3 < a < 1 + 6; dunque, a = 3 `e di biforcazione (raddoppio di periodo).
_1 2
1
Figura 4.11 Alcune iterate di h2 : h2 , h22 , h52 , h10 2
Ad illustrazione del caso 1 < a < 3, consideriamo ad esempio a = 2. I grafici delle iterate di h2 suggeriscono la propriet` a lim hk2 (x) = α2 = 1/2 se k
0 < x < 1 (vedi Figura 4.11). Si noti che la iterata decima ha un grafico con tratti quasi verticali. La prova delle affermazioni relative all’orbita periodica richiede un poco di analisi. Poich´e h2a (x) = a2 x (1 − x) (1 − ax (1 − x)) ricordando che α = 0 e αa sono equilibri per il s.d.d. {[0, 1] , ha } per a > 1, la ricerca dei punti fissi di h2a si riduce alla soluzione di ax2 − (1 + a) x +
1+a =0 a
x ∈ [0, 1] ,
1
L’equazione di secondo grado in x ammette due soluzioni βa e γa distinte e diverse da 0 e da αa se e solo se a > 3 (vedi Esercizio 4.5): a + 1 + (a + 1) (a − 3) a + 1 − (a + 1) (a − 3) γa = βa = 2a 2a Dunque, provato che βa e γa appartengono ad orbite 2 periodiche, resta da verificare che sono sulla stessa orbita e che non ve ne sono altre: ma questo
144
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
segue dal fatto che ha2 (x) = x `e una equazione di quarto grado, dunque non pu` o avere altre soluzioni oltre 0, αa, βa e γa . In particolare, l’orbita 2 periodica {βa , γa } `e unica. Per studiare la stabilit` a dell’orbita 2 periodica {βa , γa } osserviamo che da ha (x) = a (1 − 2x) si deduce:
ha
2
α a <2/3
0.5
αa
ha
a=3
α3 =2/3
α3
ha
3
αa 0.8
0.5
αa 0.8
0.5
αa 0.8
α a >2/3
αa
Figura 4.12 Grafici di ha , h2a vicino all’equilibrio αa : a ∈ (2, 3), a = 3, a ∈ (3, 4)
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d.
ha (βa ) = −1 −
(a + 1) (a − 3)
ha (γa ) = −1 +
145
(a + 1) (a − 3)
ha (βa ) ha (γa ) = 1 − (a + 1) (a − 3) . Tenuto conto che | ha (βa ) ha (γa )| < 1 se e solo se −2 < −(a + 1)(a − 3) < 0 , 2 si deduce che, √ se a > 3, allora tale disequazione equivale a a − 2a − 5 < 0, cio`e a < 1 + 6 . Da quanto ottenuto e dal Teorema 3.65 segue che se√a > 3 compare un’orbita 2 periodica, √ che si mantiene stabile finch´e a < 1 + 6 e diventa instabile per a > 1 + 6. Dunque a = 3 `e di biforcazione per ha , e tale biforcazione `e del tipo raddoppio di periodo. Si noti che il ramo dei punti di equilibrio prosegue anche per a > 3, ma non sono pi` u equilibri stabili. Aumentando il valore del parametro a si incontrano nuove biforcazioni di tipo raddoppio di periodo, con la comparsa di orbite di periodo 4, periodo 8 e cos`ı via: una cascata di raddoppi del periodo corrispondenti alle potenze di due in accordo con la prima parte dell’ordinamento di Sharkovsky.
Figura 4.13 Diagramma qualitativo di biforcazione per {R, ha }
Si pu` o provare che, al crescere di a, in corrispondenza ad un certo valore l’orbita 2 periodica diviene instabile e repulsiva e che questo si verifica contemporaneamente alla comparsa di un’orbita 4 periodica stabile ed attrattiva. Proseguendo nell’analisi della logistica, al crescere del parametro a, si incontrano tutte le orbite con periodi 2n , n ∈ N, cio`e si ha una cascata di raddoppi di periodo. Precisamente esse compaiono tutte, ben prima di raggiungere il valore 4, come proveremo nei paragrafi successivi.
146
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Si comprende bene come la dinamica di ha risulti particolarmente complessa quando a varia da 3 a 4. Per cercare di chiarirne la struttura utilizziamo un risultato dovuto a Fatou2 , la cui dimostrazione `e omessa. ! Teorema 4.18. (di Fatou) Se il s.d.d. R, ax2 + bx + c con a = 0 ha un’orbita periodica attrattiva, allora il valore critico −b/2a (lo zero della derivata) `e nel bacino di attrazione di tale orbita. Corollario 4.19. Un polinomio quadratico pu` o avere al pi` u un’orbita periodica attrattiva e stabile. Riassumendo le considerazioni precedenti: le orbite nella dinamica di un polinomio quadratico possono essere molte ma una sola pu` o essere stabile. Effettivamente nel caso della cascata di raddoppi di periodo della logistica, ciascuna nuova orbita che compare `e stabile e contemporaneamente l’orbita precedente diventa instabile. L’unico punto critico di ha `e 1/2, per ogni valore di a = 0. Dunque, se ha ha un’orbita s periodica attrattiva (s = 1, 2 . . . ), allora la traiettoria che parte da 1/2 viene attratta dall’unica orbita periodica stabile. Questa informazione `e preziosa per costruire un diagramma di biforcazione pi` u preciso di quello gi` a descritto e che d`a delle informazioni ulteriori quando a varia nell’intervallo [3, 4]. Un modo di sfruttare le conseguenze del Teorema di Fatou per effettuare una simulazione numerica con un personal computer `e il seguente: rappresentiamo in ascissa i valori del parametro a e in ordinata i valori hak (1/2) delle iterate di dato iniziale 1/2 per k grande, ad esempio k tra 100 e 300. Ovviamente dovremo scegliere un numero finito di valori di a: possiamo scegliere un intero N e fare una partizione uniforme dell’intervallo che ci interessa (per maggior chiarezza consideriamo solo l’intervallo interessante [2, 4]): 2, 2 +
1 2 1 , 2 + , . . ., 4 − , 4 . N N N
Ovviamente al crescere di N dovr` a crescere anche la memoria disponibile nel computer e la nostra pazienza nell’attendere il risultato. Se per un certo valore di a vi `e un’orbita attrattiva, allora le iterate hka (1/2) sono appunto attratte da tale orbita; con un certo ottimismo verso la sperimentazione numerica e che pur sarebbe giustificabile con altri argomenti, possiamo pensare che per k > 100 i valori siano cos`ı vicini all’attrattore da risultare numericamente e graficamente indistinguibili da esso.
2
Pierre Joseph Louis Fatou, 1878-1929.
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d.
147
1 0.8 0.6 0.4 0.2
1,5
2
2.5
3
3.5
4 1
0.9
0.8
0.8
0.7 0.6
0.6 0.4 0.5
0.2
3.7
3.75
3.8
3.85
3.9
3.95
Figura 4.14 Diagramma di biforcazione per la logistica ha , a ∈ [1, 4] , con zoom su alcuni dettagli
148
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Rappresentando graficamente (vedi Figura 4.14) tutte le iterazioni da 100 a 300, si possono individuare orbite attrattive il cui periodo `e minore di 200. Se per un valore di a non vi `e un’orbita attrattiva, ci attendiamo una distribuzione “caotica” di punti sulla retta verticale di ascissa a. Il programma pu` o richiedere molto tempo per l’esecuzione, ma il risultato grafico `e sorprendentemente ricco di informazioni: si ritrova la stabilit` a di αa fino ad a = 3, dopodich´e si riescono a decifrare varie biforcazioni con transizione verso orbite stabili di periodo doppio ottenendo delle stime dei corrispondenti valori del parametro di biforcazione. Poi sembra esservi solo confusione, ma si tratta in realt` a di un ordine assai strutturato e gerarchizzato. Due fasce pi` u chiare, una attorno ad a = 3, 74 l’altra ad a = 3, 83 sembrano suggerire la presenza di orbite attrattive di periodo 5 e 3. Effettuando uno zoom (vedi Figura 4.15 b)) si scopre una struttura analoga a quella del diagramma principale vicino ad a = 3. ηa
1
0
1 _ a
αa
ηa 1
αa αa
ηa
Figura 4.15 Autosimilarit` a di dettagli del grafico di h2a con il grafico di hb
Questa sorta di autosimilarit` a tra l’insieme ed alcuni suoi dettagli si potrebbe motivare analiticamente, tuttavia ci limitiamo ad una considerazione euristica: se `e fissato un valore di a tale che 2 < a ≤ 4, allora, con riferimento alla Figura 4.15, il grafico qualitativo di h2a nei riquadri di vertici (1/a, 1/a) ed ((a − 1) /a, (a − 1) /a) ed in quello di vertici3 ((a − 1) /a, (a − 1) /a) e (ηa , ηa) `e qualitativamente simile al grafico di hb per un b opportuno in [0, 4] (serve al pi` u una riflessione), e di conseguenza (si veda al riguardo il paragrafo 4.5) le dinamiche dei s.d.d. corrispondenti saranno analoghe. La cascata di raddoppi del periodo presenta una ulteriore sorprendente regolarit` a: il rapporto fra le distanze di parametri di biforcazione an consecutivi an − an−1 rn = an+1 − an 3
√ ηa = a + a2 − 4 /2a verifica l’equazione h2a (ηa ) = αa
4.3 Biforcazioni di una famiglia ad un parametro di s.d.d.
149
tende, per n → +∞, alla costante di Feigenbaum. Tale costante, approssimata a tredici cifre decimali, `e:
F = 4, 6692016091029 . . .
In tal modo `e possibile stimare4 entro quale valore del parametro a la successione di raddoppi di periodo si sar` a completata e, quindi, a partire da quale valore di a vi saranno orbite 2n periodiche per ogni n.Il fatto interessante `e l’universalit` a della costante di Feigenbaum: infatti, la presenza di una cascata di raddoppi di periodo con tale comportamento asintotico `e tipico di molti sistemi dinamici (ad esempio, fa (x) = a sin (πx) oppure ga (x) = ax2 sin (πx) in [0, 1]). Pi` u precisamente, se f verifica: • • • •
f f f f
: [0, 1] → R `e dotata di tutte le derivate; x) < 0; ha un unico punto di massimo x ∈ (0, 1) tale che f ( `e strettamente crescente in [0, x) e strettamente decrescente in ( x, 1]; ha derivata schwarziana (Df) (x) < 0 per ogni x ∈ [0, 1] con x = x (vedi Definizione 4.11)
allora, al variare del parametro b in [0, 1/f ( x)] , i valori ak di biforcazione corrispondenti ai raddoppi di periodo della collezione di s.d.d. {I, af}, sono tali che le differenze ak − ak−1 formano una successione asintoticamente geometrica e: ak − ak−1 lim = F. k ak+1 − ak A differenza di F il valore del parametro a∞ = limn an pu` o ovviamente dipendere da I e da f. Riepiloghiamo in una tabella i valori approssimati di alcuni parametri di biforcazione per la logistica: i valori ak corrispondenti alla comparsa del 2k ciclo, il loro limite a∞ ed aω che denota il valore del parametro corrispondente alla comparsa del 3 ciclo.
Posto pn = an − an−1 , l’informazione limn pn /pn+1 = F > 1 assicura (vedi +∞
pn < +∞ . Appendice A (21)) che la serie dei passi `e convergente:
4
n=1
150
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Valori di biforcazione per la logistica ha
Periodo delle orbite (stabili se an < a ≤ an+1 )
a1 = 3 √ a2 = 1 + 6 = 3, 449489 . . . a3 = 3, 544090 . . . a4 = 3, 564407...
2 4 8 16
a5 = 3, 568759... a6 = 3, 569692... a7 = 3, 569891 . . . .. . an .. .
32 64 27 .. . 2n .. .
a∞ = 3, 5699456 . . . √ aω = 1 + 8 = 3, 828427 . . .
3
Esercizio 4.4. Tracciare un diagramma di biforcazione di {R, fa } con fa (x) = a x − x3 . Esercizio 4.5. Determinare i punti della traiettoria di periodo 2 per il s.d.d. {[0, 1] , ha } con 3 < a ≤ 4. Esercizio 4.6. Mostrare che la traiettoria 2 periodica {βa , γa } della √dinamica logistica {[0,√1] , ha } con a > 3 `e stabile ed attrattiva se 3 < a < 1 + 6, repulsiva se a > 1 + 6. √ Esercizio 4.7. Provare la stabilit` a del 2 ciclo {βa , γa } di ha se a = a2 = 1 + 6. (Suggerimento: Provare che dato il s.d.d. {I, f } ed una sua orbita periodica {β, γ}, se g = f 2 , allora g (β) = g (γ) = −1
2g (β) + 3 (g (β)) > 0 2 2g (γ) + 3 (g (γ)) > 0 2
e
implica che {β,√γ} `e attrattiva e stabile. Quindi applicare tale propriet` a ad f = ha2 , a del 2 ciclo). dove a2 = 1 + 6, e dedurne la stabilit` Esercizio 4.8. Determinare mediante una simulazione numerica al computer (cio` e senza utilizzare le formule esplicite dell’Esercizio 4.2) i 2 cicli della parabola logistica ha per a = 3, 1, a = 3, 2 e a = 3, 3. Provare che per ciascuno dei tre valori del parametro esiste un unico 2 ciclo. Provarne direttamente la stabilit` a usando il Teorema 3.65. Disegnare alcune iterazioni con il metodo grafico per la ricerca di punti fissi di h2a con i valori scelti.
4.4 Caos ed insiemi frattali
151
Esercizio 4.9. Mediante simulazione numerica al computer determinare il 4 ciclo per ha se a = 3, 5. Provare poi che `e stabile e attrattivo. Verificare graficamente (ragnatela) che ` e un 4 ciclo. a (`e il modo pi` u rapido per trovare il Plottare ha e le sue intersezioni con l’identit` ciclo). Si suggerisce di trovare le intersezioni con il metodo di Newton. Si ricorda l’opportunit` a di inizializzare con il valore critico X0 = 1/2. Esercizio 4.10. 1) Per il s.d.d. {[0, 1] , ha } il punto αa `e un equilibrio stabile e attrattivo se e solo se 1 < a ≤ 3. Determinare l’unico valore b0 di a in (1, 3] per cui αa risulta superattrattivo (cio`e h (αa ) = 0). 2 periodica {γa , βa } `e stabile e attrattiva se e solo 2) Per il s.d.d. {[0, 1] , ha } l’orbita √ se 3 = a1 < a ≤ a2 = 1 + 6. Determinare l’unico valore b1 di a ∈ (a1 , a2 ) per cui l’orbita {γa , βa } `e superattrattiva (cio`e h2a (γa ) = h2a (βa ) = 0 ). Con riferimento ai valori ak di biforcazione corrispondenti alla cascata di raddoppi o provare che, per ogni k ∈ N, esiste bk tale che di periodo per la logistica ha si pu` ak < bk < ak+1 , e per a = bk la logistica ha presenta un 2k ciclo superattrattivo ed il valore 1/2 appartiene a tale ciclo. √ Esercizio 4.11. Con a che varia in un intorno di aω = 1 + 8, plottare ha e (ha )3 , studiare graficamente e numericamente le soluzioni di (ha )3 (x) = x. Dedurne che per a < aω non esistono orbite 3 periodiche e per a ≥ aω vi sono orbite 3 periodiche. Calcolare numericamente un 3 ciclo per ha corrispondente al valore a = 3, 84. Provare poi che `e stabile ed attrattivo. Esercizio 4.12. Verificare che la famiglia di s.d.d. {R, fa }, con fa (x) = ax(1 − x2 ) ed a ∈ R, presenta una biforcazione a forchetta.
4.4 Caos ed insiemi frattali In questo paragrafo introdurremo alcune nozioni utili alla descrizione della dinamica logistica per valori del parametro in corrispondenza ai quali tutti gli equilibri e tutte le orbite periodiche sono repulsivi. Anche al di fuori di tale contesto tali nozioni si sono rivelate paradigmi interpretativi di sorprendente generalit` a nello studio delle dinamiche non lineari. Cominciamo con l’esame di un esempio semplice, ma non quanto potrebbe apparire a prima vista. Esempio 4.20. La funzione tenda T `e definita da
T : [0, 1] → [0, 1]
T (x) =
2x x ∈ [0, 1/2] 2 − 2x x ∈ [1/2, 1]
Vogliamo studiare il corrispondente sistema dinamico {[0, 1] , T }. Il lettore `e invitato a considerare attentamente il comportamento delle iterate di T e a
152
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
T
T2
T3
T4
Figura 4.16 Grafici di T , T 2 , T 3 e T 4 e dell’identit` a
riflettere sulla dinamica corrispondente, prima di proseguire nella lettura del paragrafo. Come si vede dai grafici, l’immagine di T k ricopre 2k volte l’intervallo [0, 1]. In particolare, posto Xk+1 = T (Xk ), se si sceglie X0 = 1/7 si ottiene la traiettoria Xk di valori 1 , 7
2 , 7
4 , 7
6 , 7
2 , 7
4 , 7
6 , 7
...
cio`e 1/7 appartiene al bacino del 3 ciclo {2/7, 4/7, 6/7}. Ma la presenza di un 3 ciclo implica per il Teorema di Sharkowski l’esistenza di cicli di ogni periodo intero. Dunque la dinamica associata a T non `e affatto banale; anzi, come preciseremo in seguito, manifesta una dipendenza assai sensibile dai dati iniziali, a causa del gran numero di oscillazioni delle iterate di T .
4.4 Caos ed insiemi frattali
153
Osserviamo che T k presenta 2k−1 picchi e corrispondentemente (Teorema degli zeri) 2k intersezioni col grafico dell’identit` a (comprese quelle banali x = 0 e x = 2/3): dunque, eliminati i due punti fissi di T , i rimanenti 2k − 2 punti corrispondono necessariamente ad orbite periodiche di T con un periodo che deve essere un divisore di k. In particolare sono tutti k cicli se k `e primo: riassumendo, T ha due equilibri; per l’analisi di T 2 , T ha due equilibri ed un 2 ciclo; per l’analisi di T 3 , T ha due equilibri e due 3 cicli e cos`ı via. Esempio 4.21. Mappa D del raddoppio di fase. D : [0, 2π) → [0, 2π)
D (θ) = 2θ (mod2π)
Il lettore pignolo obietter` a che D non `e continua. Tuttavia, oltre all’esistenza di importanti fenomeni descritti da leggi prive della propriet` a di continuit` a,
2p
2p
0
p
2p
2p
0
p
2p
0
p
2p
2p
0
p
2p
Figura 4.17 Grafici di D , D2 , D3 , D4 e dell’identit` a. Si osservi che Dk ha un grafico costituito da 2k tratti ascendenti
154
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
osserviamo che in realt`a D ha una interpretazione geometrica e cinematica di grande importanza, e che corrisponde alla descrizione di un moto continuo: se si interpreta θ come la posizione (espressa mediante la variabile angolare) di una lancetta nel quadrante di un orologio, o come l’anomalia di un oggetto in movimento uniforme su un’orbita circolare, allora `e chiaro che ogni posizione `e individuata da molti valori diversi di θ, tuttavia la funzione D che raddoppia l’angolo, o “fase”, trasforma con continuit` a i punti corrispondenti della circonferenza unitaria S:5 D:S→S ! 2 ` immediato verificadove S = (x, y) ∈ R : x = cos θ, y = sin θ, θ ∈ [0, 2π) . E re che anche D ha almeno un’orbita 3 periodica (basta osservare che il grafico di D3 ha intersezioni con quello dell’identit` a in punti che non appartengono al grafico di D). Inoltre la dinamica di D esibisce orbite di ogni periodo intero. Questa propriet` a va verificata direttamente poich´e il Teorema 4.2 non si applica a funzioni continue da S in S: si consideri ad esempio f(ϑ) = ϑ + 2π che esibisce solo k punti k periodici. Vi sono varie definizioni di dinamica caotica, comunque tutte cercano di quantificare le propriet` a qualitative esibite dai s.d.d. {I, f} che, come nel caso della funzione tenda T , presentano orbite periodiche dense in I e sono generate da una funzione f le cui iterate distorcono fortemente la topologia di I, determinando una estrema sensibilit` a alle variazioni dei dati iniziali. Definizione 4.22. Un s.d.d. {I, f} `e caotico (si dice anche che ha una dinamica caotica) se: 1) le orbite periodiche sono dense (si considerano tutti i periodi interi, 1 incluso), cio`e ogni intervallo (a, b) ⊆ I contiene almeno un punto appartenente ad un’orbita periodica; 2) f `e topologicamente transitiva, cio`e per ogni x, y ∈ I e per ogni ε > 0 esistono z ∈ I e k ∈ N tali che k f (z) − y < ε; |z − x| < ε, 3) {I, f} esibisce una dipendenza sensibile dalle condizioni iniziali, cio`e esiste δ > 0 tale che, per ogni x ∈ I ed ε > 0 esistono z ∈ I e k ∈ N tali che k f (x) − f k (z) > δ. |x − z| < ε Osservazione 4.23. La sola presenza di orbite periodiche arbitrariamente vicine ad ogni punto di I non descrive necessariamente una dinamica caotica (ad esempio, si pensi al semplice caso lineare f (x) = −x), tuttavia la densit` a di orbite periodiche, unitamente alle altre due condizioni `e un ingrediente 5
Ci consentiamo un lieve abuso di notazione, denotando con la stessa lettera una funzione diversa ma strettamente associata a D.
4.4 Caos ed insiemi frattali
155
tipico delle dinamiche caotiche (si pensi alla presenza contemporanea di orbite di tutti i periodi in presenza del periodo 3). Osservazione 4.24. La propriet` a “f `e topologicamente transitiva” `e equivalente al verificarsi della condizione: “per ogni coppia di intervalli aperti non vuoti U , V ⊂ I esistono z ∈ U e k ∈ N tali che f k (z) ∈ V ”. Questo significa che comunque si scelgano due “piccoli” intervalli, in ognuno c’`e almeno un punto la cui traiettoria transita nell’altro. Osservazione 4.25. La dipendenza sensibile dai dati iniziali ha il significato seguente: se le iterazioni di una funzione con tale propriet` a modellano il comportamento a lungo termine di un sistema (economico, demografico, meteorologico, ecc.), allora errori comunque piccoli nella misurazione della inizializzazione possono comportare grandi differenze fra il valore effettivo e la stima dedotta dal modello. Poich´e tutte le operazioni di misura sono affette da errori, si tratta di un limite ineludibile di cui tener conto nelle applicazioni, ad esempio limitando l’uso predittivo del modello a pochi passi o iterazioni. Non si esclude tuttavia che si evidenzino attrattori (eventualmente con geometria meno banale degli equilibri e delle orbite periodiche) relativamente ai quali risultino significative anche previsioni di lungo periodo. Osservazione 4.26. La Definizione 4.22 di dinamica caotica `e una sorta di miscela tra caos e ordine, nel senso che esclude una descrizione contemporaneamente semplice ed ordinata della dinamica, tuttavia prescrive con precisione alcuni requisiti geometrico-topologici alle traiettorie: ad esempio, arbitrariamente vicino ad ogni punto vi sono orbite periodiche. D’altro canto se si interpreta il s.d.d. {I, f} come la deformazione di un filo elastico I mediante la trasformazione f, allora nel caso di dinamica caotica I viene ripiegato in s`e stesso in modo sempre pi` u complicato al crescere delle iterazioni di f. Se I `e un intervallo non banale ed f `e continua, si pu` o semplificare la definizione di dinamica caotica come precisato nell’enunciato seguente, di cui omettiamo la dimostrazione. Teorema 4.27. Siano I ⊂ R un intervallo non banale ed f : I → I una funzione continua. Se f `e topologicamente transitiva ed i punti appartenenti ad orbite periodiche di {I, f} sono densi in I, allora {I, f} esibisce anche una dipendenza sensibile ai dati iniziali, dunque f d` a luogo ad una dinamica caotica in I. Verifichiamo la definizione di sistema dinamico caotico su esempi espliciti: le dinamiche generate dalla funzione tenda T e dal raddoppio di fase D sono caotiche rispettivamente in [0, 1] e [0, 2π) oppure S. Teorema 4.28. Il s.d.d. {[0, 1] , T } ha dinamica caotica. Prova. Occorre verificare le propriet` a 1)-2)-3) della Definizione 4.22. Per seguire il ragionamento `e utile tenere a mente i grafici di T e delle sue iterate (vedi Figura
156
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
4.17); osserviamo che per effettuare simulazioni al computer delle iterazioni di funzioni `e opportuno memorizzare ad ogni passo le composizioni ottenute, al fine di non far ripetere alla macchina inutilmente una grande quantit` a di passaggi. (1) Densit` a delle orbite periodiche: Se k ∈ N denotando con Ih gli intervalli [h2−k , (h + 1) 2−k ), 0 ≤ h ≤ 2k − 1, allora T k ristretta ad Ih `e biunivoca a valori in [0, 1] (monot` ona strettamente crescente se h `e pari, strettamente decrescente se h `e dispari); ne segue che {[0, 1] , T } ha esattamente 2k punti periodici di periodo s, 1 ≤ s ≤ k, ognuno dei quali appartiene ad un intervallo Ih , come si deduce applicando il Teorema degli zeri alla differenza T k (x) − x in ciascuno degli intervalli Ih . (2) T `e topologicamente transitiva: Fissati x, y ∈ [0, 1] ed 0 < ε < 1/2, sia k ∈ N tale che 2k ε > 2. Allora l’immagine di (x, x + ε) mediante T k `e esattamente [0, 1], dunque (x, x + ε) contiene punti la cui immagine mediante T k coincide con qualunque y ∈ [0, 1]. Ovviamente nell’argomento precedente (x, x + ε) va sostituito con (x − ε, x) se x + ε > 1. (3) La dipendenza sensibile dai dati iniziali: segue da (1) e (2) e dal teorema precedente, tuttavia la sua dimostrazione diretta `e estremamente semplice: basta scegliere δ = 1/2 e ripetere l’argomento della prova di (2) per ottenere la tesi.
Osservazione 4.29. Tutte le orbite periodiche di {[0, 1] , T } di cui si `e provata l’esistenza nella verifica di (1) sono repulsive. Infatti |T (β)| = 2 > 1 in ciascun punto β appartenente a tali orbite periodiche. Inoltre {0} (in cui non `e definita la derivata) `e repulsivo. Teorema 4.30. Il s.d.d. {[0, 2π), D} ha una dinamica caotica. Prova. I punti (2) e (3) si dimostrano in modo identico al caso di {[0, 1] , T } senza usare il Teorema 4.27. Per il punto (1) osserviamo che pur non essendo continua D, possiamo usare lo stesso argomento della dimostrazione precedente perch´e Dk (x)−x `e continua e cambia segno all’interno di ciascun Ih .
Osservazione 4.31. Anche per il s.d.d. {[0, 2π), D} tutti gli equilibri e le orbite periodiche sono repulsivi. A ben riflettere, la complessit` a delle dinamiche associate a T e D non `e cos`ı sorprendente. Basta pensare alle operazioni che compie un pasticcere per preparare una pasta sfoglia: spianandola la allunga in una direzione, poi la ripiega su s`e stessa, cio`e (trascurando la direzione non allungata) compie la trasformazione T , quindi la ripete un gran numero di volte (k) cio`e itera il procedimento operando la trasformazione T k . Alla fine della procedura non `e sorprendente constatare che punti che erano prossimi possono ritrovarsi molto lontani fra loro; inoltre piccole porzioni iniziali ricoprono con la loro proiezione tutta la sfoglia. Invece, iterare D corrisponde ad allungare, tagliare e sovrapporre anzich´e ripiegare, ripetendo pi` u volte la stessa operazione: nuovamente si otterr`a un grande rimescolamento e non c’`e speranza di mantenere la prossimit` a di tutte le coppie di punti.
4.4 Caos ed insiemi frattali
157
Figura 4.18 Pasta sfoglia: prime operazioni del pasticcere interpretate mediante le trasformazioni T e D iterate
Studieremo ora alcuni esempi modello di insiemi frattali in R che appaiono nello studio della dinamica di alcuni s.d.d.. Definiamo in modo “informale” un insieme frattale come un sottoinsieme di R che verifica le propriet` a seguenti: • ha una struttura fine, cio`e i dettagli sono definiti su scale arbitrariamente piccole; • non `e un oggetto geometrico elementare: non coincide n´e localmente, n´e globalmente con una unione di intervalli o di punti isolati; • la “dimensione” non `e intera6 ; • spesso esibisce propriet`a di autosimilarit` a (o le approssima in modo statistico): le parti che lo costituiscono sono in corrispondenza biunivoca con tutto l’insieme mediante una semplice trasformazione geometrica; • spesso `e possibile definirlo mediante la ripetizione ricorsiva di regole semplici. Esempio 4.32. Consideriamo l’esempio capostipite di insieme frattale: l’insieme di Cantor C (o insieme di Cantor del terzo-medio) che si ottiene rimuovendo dall’intervallo [0, 1] il segmento aperto intermedio (1/3, 2/3) ed iterando tale operazione sui segmenti rimanenti: ci` o che rimane `e appunto l’insieme di Cantor. Descriviamo i primi passi della costruzione: E0 = [0, 1] ( ) ( ) 1 2 E1 = 0, ∪ ,1 3 3 ( ) ( ) ( ) ( ) 1 2 1 2 7 8 ∪ , ∪ , ∪ ,1 E2 = 0, 9 9 3 3 9 9 ... Ciascun Ek `e unione di 2k , k ∈ N, intervalli di lunghezza 3−k e si pone C=
∞ 6
Ek
k=0 6
Per una definizione formale di dimensione si veda l’Appendice E.
158
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
E0 E1 E2 E3 E4 Figura 4.19 I primi quattro passi nella costruzione dell’insieme di Cantor
Osserviamo che: • C `e autosimilare: ogni sua porzione si ottiene mediante un riscalamento di 3−n ed una eventuale traslazione; • C ha una struttura fine: non riusciamo a disegnarlo o ad immaginarlo con precisione; • la definizione ricorsiva `e estremamente semplice, bench´e la topologia di C sia tutt’altro che banale: non `e finito, n´e numerabile, `e totalmente sconnesso (cio`e non contiene alcun intervallo non banale), ha misura 1 dimensionale nulla, ma la dimensione corretta per “misurarlo” ha un valore strettamente compreso fra 0 e 1 (si veda Appendice F). Esempio 4.33. Consideriamo il s.d.d. {R, g} dove g = 3T /2.
1.5
1
1
Figura 4.20 Grafico di g (x) = 3T (x)/2 ; due punti fissi repulsivi: 0 , 3/4
4.4 Caos ed insiemi frattali
Figura 4.21 Grafici di g2 e g3 dove g (x) = 3T (x) /2
3 _ 2
Figura 4.22 Dinamica di {C, 3T/2}
159
160
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
g ripiega R\ {1/2} e lo trasforma in due copie di (−∞, 3/2). g3 presenta punti fissi (che non sono punti fissi di g) dunque vi sono orbite di periodo 3 per g e, per il Teorema di Sharkovsky, anche orbite di ogni periodo intero. Teorema 4.34. Se g = 3T /2 e C `e l’insieme di Cantor, allora g (C) = C, cio`e C `e invariante per il s.d.d. {R, g}. Omettiamo la dimostrazione, ma osserviamo che l’insieme invariante C `e repulsivo per la dinamica di g; infatti: • se x < 0, allora gk (x) = 3k x → −∞ se k → +∞; • se x > 1, allora g (x) < 0 e gk (x) = gk−1 (g (x)) = 3k−1 g (x) → −∞ se k → +∞; • se x ∈ [0, 1] \C, allora esiste h tale che per x ∈ [0, 1] \Eh , si ha gh (x) > 1 ; gh+1 (x) < 0 ; gk (x) = gk−h gh (x) → −∞ per k → +∞ (gli insiemi Eh sono quelli definiti nella costruzione dell’insieme di Cantor). Si pu` o anche dimostrare che le traiettorie contenute in C sono particolarmente erratiche, precisamente vale il seguente Teorema 4.35. La dinamica del s.d.d. {C, 3T /2} `e caotica. Esempio 4.36. Se a > 4, allora la mappa logistica ha determina in R una dinamica simile a quella della funzione g = 3T /2 discussa in precedenza. Questo fatto pu` o essere provato mediante la coniugazione topologica che sar` a introdotta nel paragrafo successivo.
1
1
Figura 4.23 ha con a > 4
4.4 Caos ed insiemi frattali
161
Definizione 4.37. Un sottoinsieme E ⊆ R si dice insieme di tipo Cantor se • E `e chiuso e limitato; • E `e totalmente sconnesso, cio`e non contiene intervalli con pi` u di un punto; • E non ha punti isolati, cio`e se p ∈ E, allora ∀r > 0, (E\ {p}) ∩ (p − r, p − r) = ∅. Esempio 4.38. Ct : Insieme di Cantor t-medio, 0 < t < 1 Analogamente alla costruzione dell’insieme di Cantor, a partire dall’intervallo chiuso [0, 1] applichiamo una procedura iterativa che consiste nel rimuovere un intervallo aperto centrato in ciascun intervallo residuo, di lunghezza t volte quella dell’intervallo che lo contiene. Non rimane l’insieme vuoto, perch´e almeno gli estremi di tutti gli intervalli aperti rimossi (che sono infiniti) sono nell’insieme. Gli insiemi di Cantor t-medi (in particolare, C corrispondente ad t = 1/3) sono insiemi di tipo Cantor. Elenchiamo alcune propriet` a di {R, ha } con a > 4, senza riportarne la dimostrazione. Fissato a: • l’insieme R = x ∈ [0, 1] : hka (x) ∈ [0, 1]
∀k ∈ N
!
che `e per definizione invariante rispetto ad ha , `e un insieme di tipo Cantor; • R `e repulsivo: limk hka (x) = −∞ ∀x ∈ R\R; • la dinamica di ha ristretta ad R `e caotica. Concludiamo questo paragrafo riportando senza dimostrazione un risultato importante che chiarisce come l’esistenza di orbite di periodo 3 oltre all’esistenza di tutti gli altri periodi comporta una dinamica che rimescola molto la dinamica di alcuni sottoinsiemi del dominio della funzione in esame. Teorema 4.39. (T.Y. Li & J.A. Yorke, 1975) Se il s.d.d. {I, f}, dove I `e un intervallo ed f : I → I `e una funzione continua, ha un’orbita periodica di minimo periodo 3, allora esiste un sottoinsieme E ⊆ I non numerabile e non contenente alcuna orbita periodica, tale che: per ogni x, y ∈ E con x = y valgono max lim f k (x) − f k (y) > 0 k
min lim f k (x) − f k (y) = 0 ; k
per ogni x ∈ E ed y ∈ I con y periodico, si ha max lim f k (x) − f k (y) > 0 . k
162
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
La tesi del Teorema 4.39 viene espressa in modo colloquiale nella forma seguente “il periodo 3 implica caos”. Tale affermazione `e corretta solo in un contesto in cui (nella definizione di caos) non si richiede la densit` a delle orbite periodiche in tutto I, e limitatamente ai s.d.d. scalari. Esercizio 4.13. Consideriamo una lancetta che si muove con velocit` a angolare uniforme ed unitaria nel quadrante di un cronometro, cio`e compie un giro in 60 unit` a di tempo (secondi). Descrivere il s.d.d. che fa corrispondere alle varie posizioni iniziali le traiettorie della lancetta ad intervalli di tempo di un secondo. Dire se tale s.d.d. `e topologicamente transitivo, se le orbite periodiche sono dense, e se vi `e dipendenza sensibile dai dati iniziali. Esercizio 4.14. Consideriamo un orologio con due lancette, quella delle ore e quella dei minuti, che si muovono a scatti, la prima ogni ora, la seconda ogni minuto. Descrivere la dinamica Xk = ϕk − ψk dove ϕk `e la posizione angolare delle lancette delle ore e ψk di quella dei minuti (si considerino angoli in [0, 2π)). Esercizio 4.15. Consideriamo il s.d.d. {R, g} dove g (x) = 10x. Mostrare che tale s.d.d. lineare non `e caotico, tuttavia esibisce dipendenza sensibile dai dati iniziali. Dunque quest’ultima propriet` a non si presenta solo nelle dinamiche non lineari ma anche in quelle lineari. Esercizio 4.16. Provare che esiste un insieme denso E ⊂ [0, 1] tale che per ogni X0 ∈ E si ha limk T k (X0 ) = 0 (per la precisione, esiste k0 = k0 (X0 ) tale che T k (X0 ) = 0 per ogni k > k0 ), dove T `e la funzione tenda. Esercizio 4.17. Provare che esiste un insieme denso E ⊂ [0, 1] tale che per ogni X0 ∈ E si ha limk Dk (X0 ) = 0 (per la precisione, esiste k0 = k0 (X0 ) tale che Dk (X0 ) = 0 per ogni k > k0 ), dove D `e la mappa del raddoppio di fase. Esercizio 4.18. Utilizzando la caratterizzazione di insiemi frattali autosimili ed il Teorema F.1 (si veda l’Appendice F), determinare la dimensione di Hausdorff dell’insieme di Cantor e, pi` u in generale, la dimensione di Hausdorff di un insieme di tipo Cantor t medio. Esercizio 4.19. Sia A = C1/2 . Determinare la dimensione di A e di A × A. Esercizio 4.20. Il Sierpinski gasket quadrato Q si ottiene da un quadrato con il bordo e l’interno, suddiviso in nove quadrati uguali, rimuovendo quelli non adiacenti ai vertici e iterando l’operazione. Calcolarne la dimensione di Hausdorff. Esercizio 4.21. Modificare la costruzione dell’Esercizio precedente suddividendo in sedici quadrati uguali e calcolare la dimensione di Hausdorff dell’insieme W cos`ı ottenuto.
4.5 Coniugazione topologica di sistemi dinamici discreti A volte lo studio diretto di un s.d.d. risulta sorprendentemente difficoltoso, ma `e possibile studiare un altro sistema che `e pi` u semplice da analizzare ed
4.5 Coniugazione topologica di sistemi dinamici discreti
163
ha il quadro delle fasi qualitativamente identico a quello in esame. In tale caso i due s.d.d. si diranno topologicamente coniugati. Vedremo, ad esempio, che la funzione tenda T in [0, 1] ha una dinamica topologicamente coniugata a quella della parabola logistica h4 in [0, 1]; questo fatto ci consentir` a di provare, tra l’altro, che la parabola logistica corrispondente al valore 4 del parametro ha una dinamica caotica. L’idea di partenza `e molto semplice: dato un s.d.d. {I, f}, se si cambiano ragionevolmente le coordinate nel dominio I e nell’immagine f (I), e si cambia coerentemente la funzione f, allora gli aspetti qualitativi del quadro delle fasi non dovrebbero cambiare. Definizione 4.40. Siano I, J ⊂ R intervalli e f : I → I, g : J → J. Le funzioni f e g si dicono topologicamente coniugate se esiste ϕ : I → J continua, invertibile, con inversa ϕ−1 continua tale che g = ϕ ◦ f ◦ ϕ−1 .
(4.2)
In tal caso, la trasformazione ϕ si dice una coniugazione topologica di f e g. Analogamente, i s.d.d. {I, f} e {J, g} si dicono topologicamente coniugati se f e g sono topologicamente coniugate. Si noti che (4.2) `e equivalente a ciascuna delle seguenti relazioni g◦ϕ = ϕ◦f
f = ϕ−1 ◦ g ◦ ϕ
ϕ−1 ◦ g = f ◦ ϕ−1
come `e facile verificare effettuando adeguate composizioni con ϕ e ϕ−1 e semplificando. Grazie a questa equivalenza, per verificare la eventuale coniugazione topologica negli esempi si sceglie di volta in volta la pi` u comoda tra le precedenti uguaglianze. La situazione di coniugazione tra f e g `e rappresentata dal diagramma f
−1
ϕ
I −→ I ↑ ↓ϕ g J −→ J
Osservazione 4.41. Se ϕ : I → J `e continua, invertibile, con inversa continua, allora `e strettamente monot`ona e: 1) U ⊂ I `e chiuso in I se e solo se ϕ (U ) `e chiuso in J; 2) la successione {Xk } `e convergente in I se e solo se la successione {ϕ (Xk )} `e convergente in J; 3) A ⊂ I `e denso in I ⇔ ϕ (A) `e denso in J.
164
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Teorema 4.42. Siano I, J ⊂ R intervalli, f : I → I, g : J → J due funzioni, e ϕ : I → J una coniugazione topologica tra f e g. Allora: (i) ϕ ◦ f k = gk ◦ ϕ, per ogni k ∈ N, cio`e anche f k e gk sono topologicamente coniugate; (ii) se la successione {Xk } `e una traiettoria di {I, f}, allora la successione {ϕ (Xk )} `e una traiettoria di {J, g}; (iii) α `e un punto s periodico per {I, f} se e solo se ϕ (α) `e punto s periodico per {J, g} ; (iv) se A ⊂ I `e un attrattore e B ⊂ I `e il suo bacino di attrazione, allora ϕ (A) `e un attrattore e ϕ (B) `e il suo bacino di attrazione; (v) le orbite periodiche di {I, f} sono dense in I se e solo se le orbite periodiche di {J, g} sono dense in J; (vi) {I, f} `e topologicamente transitivo se e solo se {J, g} `e topologicamente transitivo; (vii) {I, f} `e caotico se e solo se {J, g} `e caotico. Prova. Per le prime sei affermazioni si tratta di semplici verifiche da effettuarsi nell’ordine di enunciazione. Limitiamoci alla verifica della prima: ϕ ◦ f k = ϕ ◦ f ◦ ϕ−1 ϕ ◦ f ◦ ϕ−1 · · · ϕ ◦ f ◦ ϕ−1 ϕ = gk ◦ ϕ. -. / , k volte
La (vii) segue da (v), (vi) e dal Teorema 4.27.
Relativamente alle (v), (vi) e (vii) osserviamo che la dipendenza sensibile dai dati iniziali da sola non si conserva in generale per coniugazione topologica, come mostra il controesempio seguente. ! ! Esempio 4.43. Siano (0, 1) , x2 e (1, +∞) , x2 . Allora ϕ (x) = 1/x `e una coniugazione topologica tra i due s.d.d.. Ma il primo non ha una dipendenza sensibile dai dati iniziali, dato che 0 ne attrae tutte le traiettorie, men0 ∈ (1, +∞) e ha dipendenza sensibile dai dati iniziali: X0 , X tre il secondo 0 = ε > 0 implicano X0 − X k = X02k − X 02k = Xk − X 0 + · · · + X 0 X 2k−1 + X 2k−2 X 2k−1 ≥ 2kε. = X0 − X 0 0 0 Tuttavia vale il seguente teorema di cui non diamo la dimostrazione. Teorema 4.44. La dipendenza sensibile dai dati iniziali si preserva per coniugazione topologica se l’intervallo I (e di conseguenza anche J) `e chiuso e limitato. Esplicitiamo alcuni importanti risultati che seguono facilmente dagli strumenti introdotti in questo paragrafo.
4.5 Coniugazione topologica di sistemi dinamici discreti
165
Teorema 4.45. La mappa logistica di parametro 4, h4 in [0, 1] , `e topologicamente coniugata alla funzione tenda T in [0, 1] , dove T `e definita nell’Esempio 4.20. Prova. La funzione ϕ (x) = (sin (πx/2))2 `e una coniugazione topologica tra i due s.d.d. {[0, 1] , h4 } e {[0, 1] , T }. Infatti ϕ ([0, 1]) = [0, 1], ϕ `e continua in [0, 1], strettamente monot` ona e inoltre: π 2 π 4
π 2 2 π sin cos − sin = x x x x = 4 sin h4 (ϕ (x)) = 4 2 2 2 2 (sin (πx))2 se 0 ≤ x ≤ 1/2 = = (sin (πx))2 = (sin (πx − π))2 se 1/2 < x ≤ 1 = ϕ (T (x)) .
Il primo esempio del paragrafo 4.2 mostra che la dinamica di un s.d.d. associato ! ad una funzione unimodale come R, ax2 + bx + c con a < 0 pu` o presentare orbite di periodo 3. La coniugazione topologica ed i Teoremi 4.44 e 4.45 assicurano che la dinamica della logistica h4 in [0, 1] produce orbite√ di periodo 3: questo in realt` a avviene a partire dal valore aω di a (con aω = 1+ 8 = 3, 828427...). Dunque, in accordo con il Teorema di Sharkovsky, se a > aω allora la logistica ha traiettorie periodiche di ogni periodo intero. Teorema 4.46. La mappa logistica di parametro 4 determina una dinamica caotica in [0, 1] ed il quadro delle traiettorie di {[0, 1] , h4 } coincide qualitativamente con il quadro delle traiettorie di {[0, 1] , T }. ` una conseguenza immediata dei Teoremi 4.28, 4.42 e 4.45. Prova. E
Osserviamo che, dati due s.d.d., non `e in generale semplice verificare se sono topologicamente coniugati. Il riscontro di eventuali differenze nella dinamica prova che non lo sono (vedi Teorema 4.42). Invece, provare la coniugazione topologica corrisponde alla determinazione esplicita della funzione di coniugazione ϕ. Le tecniche del paragrafo 3.9 consentono in alcuni casi di esplicitare tale coniugazione topologica: il Teorema 3.70 fornisce esplicitamente la coniugazione tra un s.d.d. non lineare e un s.d.d. lineare. Nell’Esempio 3.73 si prova la coniugazione topologica di {(0, 1/2) , h2 } con {(0, +∞) , 2x}; le considerazioni successive al Teorema 3.70 consentono di esplicitare le soluzioni in forma non ricorsiva per casi pi` u complicati mediante trasformazioni non biunivoche (si veda l’analisi di h4 nell’Esempio 3.74). Nelle ipotesi del Teorema 3.70, utilizzando le notazioni del paragrafo 3.9, osserviamo che J = ψ (I) `e un intervallo, i s.d.d. {I, f} e {J, bx} sono topologicamente coniugati, la coniugazione topologica `e data da ψ e risulta f = ψ−1 ◦ v ◦ ψ. Osserviamo infine che il s.d.d. {J, bx} `e ben definito (cio`e per ogni y ∈ J risulta by ∈ J); anche questo fatto `e una conseguenza del Teorema 3.70, infatti se y ∈ J allora esiste x ∈ I tale che y = ψ (x), dunque, posto x = f (x) si ottiene by = bψ (x) = ψ ( x) che ovviamente appartiene a J.
166
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Esercizio 4.22. Verificare che il cambio di variabili ϕ (x) = x−b/ (1 − a), utilizzato nella dimostrazione del Teorema 2.5 per studiare il s.d.d. {R, ax + b} nel caso a = 1, `e effettivamente una coniugazione topologica tra la funzione lineare affine f (x) = ax + b e la funzione lineare g (x) = ax. Esercizio 4.23. Mostrare con un esempio che due s.d.d. lineari possono non essere topologicamente coniugati. Esercizio 4.24. Siano f e g topologicamente coniugate, ed x un punto fisso per f : f ( x) = x . Dimostrare che se t `e il punto corrispondente ax mediante una coniuga zione topologica, allora t `e punto fisso per g: g t = t (la coniugazione topologica preserva i punti fissi ). Esercizio 4.25. Dimostrare che se f e g sono topologicamente coniugate mediante una funzione ϕ monot` ona crescente ed esiste un intervallo H contenuto nel dominio I di f tale che f (x) > x per ogni x ∈ H, allora risulta g (t) > t per ogni t ∈ ϕ (H). Esercizio 4.26. Mostrare che i sistemi dinamici {[0, 1] , h4 } e {[0, 1] , g} dove g (x) = & % min 4x2 , 4 (x − 1)2 non sono topologicamente coniugati, nonostante il fatto che sia one crescenti in h4 sia g sono unimodali, continue, suriettive e strettamente monot` (0, 1/2), decrescenti in (1/2, 1). Esercizio 4.27. Provare che se f e g sono topologicamente coniugate mediante ϕ, ed f `e monot` ona in un intervallo H, allora anche g `e monot` ona (nello stesso senso) in ϕ (H) (la coniugazione topologica preserva la monotonia).
Si osservi che dagli esercizi precedenti segue una condizione necessaria per la coniugazione topologica fra due funzioni f e g: vi deve essere una corrispondenza tra tutti gli eventuali punti e/o intervalli in cui f e g coincidono con la funzione identit` a. Esercizio 4.28. Dimostrare che il Teorema di Sharkovsky vale anche per i s.d.d. del tipo {I, f } con I intervallo aperto. Esercizio 4.29. Utilizzare gli schemi di approssimazione numerica di Eulero esplicito ed Eulero implicito (si veda l’Esempio 1.20) per approssimare la soluzione del seguente problema di Cauchy, relativo all’equazione differenziale ordinaria della crescita logistica a tempo continuo u = b (u − u2 ) u(0) = u0 , dove l’incognita u `e una funzione continua e derivabile in [0, ∞) e i parametri reali b ed u0 sono assegnati e verificano b > 0, 0 < u0 < 1 . Analizzare il comportamento delle soluzioni ottenute con i due schemi numerici utilizzando la teoria sviluppata nei Capitoli 3 e 4.
4.6 Metodo di Newton Un esempio notevole di s.d.d. `e quello associato al metodo di Newton per la determinazione degli zeri di funzioni non necessariamente polinomiali.
4.6 Metodo di Newton
167
Si tratta di un metodo iterativo che consente di ottenere una buona approssimazione numerica del risultato in ipotesi molto generali: `e necessario accontentarsi di una approssimazione, perch´e in generale non sono disponibili formule risolutive neppure per calcolare gli zeri di polinomi di grado quinto o superiore. Il metodo di Newton `e molto utilizzato per la sua grande efficienza numerica, bench´e si tratti di una tecnica ormai classica. Il metodo di Newton per la ricerca degli zeri di una funzione g derivabile consiste nel seguente metodo iterativo: si costruisce la funzione
Ng (x) = x −
g (x) g (x)
il cui dominio coincide con quello di g, privato degli zeri di g , poi, a partire da un valore X0 , si genera per ricorrenza la successione X = {Xk } iterando la funzione Ng : X1 = Ng (X0 ) , X2 = Ng (X1 ) , . . . , Xk+1 = Ng (Xk ) = Ngk+1 (X0 ) .
X0
X1
X2
Figura 4.24 Metodo di Newton
Se g ha almeno uno zero e la scelta di X0 `e stata effettuata in modo opportuno, la successione X risulta rapidamente convergente ad una soluzione dell’equazione g (x) = 0 x ∈ dom (g) . Quando X0 ∈ R e g `e una funzione reale di variabile reale, il significato geometrico della successione X `e il seguente: noto Xk , si traccia la tangente in (Xk , g (Xk )) al grafico di g e si denota con Xk+1 l’ascissa della sua intersezione con l’asse reale. Per questo motivo il metodo di Newton `e anche noto come metodo delle tangenti.
168
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Osservazione 4.47. I punti fissi di Ng sono gli zeri di g in cui la derivata g non si annulla. Volendo studiare la stabilit` a di un punto fisso α del s.d.d. g (x) g (x) 2 associato a Ng , supposta g ∈ C , possiamo calcolare (Ng ) (x) = 2 (g (x)) da cui, se g (α) = 0 e g (α) = 0, si deduce (Ng ) (α) = 0. L’Osservazione precedente ed il Teorema 3.53, provano il seguente Teorema 4.48. Se g (α) = 0 e g (α) = 0, allora α `e localmente asintoticamente stabile per Ng (pi` u precisamente, `e superattrattivo). Il risultato precedente, utile sul piano teorico, non precisa ai fini pratici quanto vicino ad α si debba partire (scelta di X0 ) per sentire l’effetto dell’attrattivit` a locale di α. Pi` u utile `e il seguente risultato elementare, che richiamiamo senza dimostrazione, relativo alla ricerca degli zeri di una funzione reale di variabile reale. Teorema 4.49. Sia g : [a, b] → R una funzione convessa e derivabile, con g (a) < 0 < g (b). Allora g ha uno ed un solo zero α in (a, b). Inoltre, comunque si scelga X0 ∈ [a, b] tale che g (X0 ) > 0, la successione {Xk } generata con il metodo di Newton a partire da X0
Xk+1 = Xk −
g (Xk ) g (Xk )
`e definita per ogni k in N e converge ad α in modo decrescente lim Xk = α, k
α < Xk+1 < Xk < X0
∀k ∈ N.
Se, inoltre, g ∈ C 2 ([a, b]), allora vale la seguente stima dell’errore: 0 < Xk+1 − α <
max g 2 (Xk − α) . 2g (α)
In particolare, se si parte da un valore X0 prossimo ad α, la convergenza `e molto rapida. Occorre fare attenzione alla verifica delle ipotesi del Teorema 4.48. Ad esempio, `e chiaro che la tesi continua a valere se sostituiamo l’ipotesi di convessit`a con quella di concavit` a, pur di scegliere X0 tale che f (X0 ) < 0 ottenendo la monotonia crescente per X a partire da valori X0 tali che f (X0 ) < 0. Tuttavia, se vi sono cambi di concavit` a nell’intervallo [a, b] si possono avere delle sorprese.
4.6 Metodo di Newton
169
` ben Esempio 4.50. Consideriamo la funzione f : R → R, f (x) = arctan x. E noto che essa ha un solo zero (nell’origine). Tuttavia essa `e convessa in (−∞, 0) e concava (0, +∞), dunque il Teorema 4.49 non vale, e se vogliamo utilizzare il metodo di Newton per trovare tale zero dobbiamo porre attenzione alla scelta di X0 . Ad esempio, se x `e l’unica soluzione dell’equazione arctan x =
2x 1 + x2
x ∈ (0, +∞)
cio`e la tangente in ( x, arctan x ) al grafico di arctan interseca l’asse delle ascisse in (− x, 0), allora il metodo di Newton (corrispondente alle iterazioni di Nf (x) = x − 1 + x2 arctan x) se inizializzato in X0 = x , d` a luogo ad una k traiettoria 2 periodica: X1 = − x, X2 = x , X3 = − x, . . . , Xk = (−1) x . Si noti che (Nf ) (x) = −2x arctan x < 0 per ogni x = 0, risultando nulla in x = 0. Nf `e strettamente decrescente in R ed `e dispari. L’equazione {x ∈ R : Nf (x) = x} ha la sola soluzione x = 0; invece l’equazione
-x
x
x
Figura 4.25 Grafici di arctan x e 2x/ 1 + x2 ; 2 ciclo di {R, Narctan }
Figura 4.26
s.d.d. associato a Narctan ; 2 ciclo { x, − x} di Narctan
170
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
# " 2 x (quest’ultima affermax ∈ R : (Nf ) (x) = x ammette le soluzioni 0 e ± ona decrescente assicura che i zione segue dal fatto che Nf dispari e monot` 2 punti fissi di (Nf ) coincidano con le soluzioni di {x ∈ R : Nf (x) = −x}, che sono appunto 0 e ± x perch´e Nf `e convessa in (−∞, 0) e concava in (0, +∞)). Utilizzando l’Algoritmo II (vedi pag. 98) o, pi` u semplicemente, dallo studio del segno della differenza arctan x − 2x/ 1 + x2 (vedi Figura 4.26) si ottiene una descrizione completa del quadro delle fasi del s.d.d. {R, Nf } che qui riassumiamo: k
, allora Xk = (−1) x ; • se |X0 | = x k • se |X0 | < x , allora limk Xk = 0, sign(Xk ) = (−1) sign(X0 ), |Xk | 0; k , allora limk |Xk | = +∞, sign(Xk ) = (−1) sign(X0 ), |Xk | • se |X0 | > x +∞. Lo 0 `e un equilibrio stabile e localmente attrattivo, mentre { x, − x} `e un 2 ciclo repulsivo.7 Esercizio 4.30. Calcolare numericamente gli zeri di f : R → R, f (x) = ex − 3, con un errore minore di 10−3 .
4.7 Sistemi dinamici discreti nel campo complesso L’ambiente naturale in cui studiare il (sistema dinamico discreto associato al) metodo di Newton `e il piano complesso C. Infatti, il metodo, se ben inizializzato, converge ad uno zero della funzione; tuttavia, gi` a nel caso dei polinomi, il Teorema fondamentale dell’Algebra garantisce l’esistenza di soluzioni in C, dunque le soluzioni cercate possono non essere numeri reali. Nell’ambiente complesso, assegnata la funzione g di cui si cercano gli zeri complessi, il metodo e la funzione iterata corrispondente Ng hanno formulazione identica al caso reale; invece ci`o che non vale in C `e l’interpretazione geometrica come metodo delle tangenti. Precisiamo la nozione di s.d.d. nel caso di iterazioni che trasformano un generico sottoinsieme del piano complesso C in s`e stesso. Faremo uso di definizioni valide in un ambito pi` u generale di quello considerato nel Capitolo 3. Il lettore `e invitato verificare l’analogia formale di tali definizioni con quelle del caso reale. Definizione 4.51. Se I = ∅ `e un sottoinsieme di C e f : I → I , la coppia {I, f} `e detta sistema dinamico discreto su I, del primo ordine, autonomo, in forma normale. 7
√ L’esistenza di x > 1/ 2 segue dal teorema degli zeri e da 1 2x 2√ π = 2 > = arctan √ . √ 1 + x2 3 4 2
x=1/ 2 La non esistenza di altri valori positivi tali che arctan x = 2x/ 1 + x2 (che originerebbero altri 2 cicli!) segue dallo studio di (Nf )2 .
4.7 Sistemi dinamici discreti nel campo complesso
171
Definizione 4.52. α `e un equilibrio per il s.d.d. {I, f}se α ∈ I e α = f (α). Definizione 4.53. Un equilibrio α del s.d.d. {I, f} si dice equilibrio stabile se, ∀ε > 0, esiste un δ > 0 tale che |X0 − α| < δ, X0 ∈ I e Xk = f k (X0 ) implicano |Xk − α| < ε ∀k ∈ N. Viceversa, α si dice equilibrio instabile (o repulsivo) se non `e stabile, cio`e se esiste ε0 > 0 tale che, per ogni δ > 0, si possono determinare X0 ∈ I e k > 0 tali che |X0 − α| < δ |Xk − α| > ε0 . Per confronto con le definizioni dei paragrafi 3.1 e 3.5, si osservi che l’insieme {z ∈ C : |z − α| < δ} `e un disco, mentre l’insieme {x ∈ R : |x − α| < δ} `e un intervallo.
a
a +d
Figura 4.27 Disco di centro α e raggio δ in C
Definizione 4.54. Un equilibrio α di un s.d.d. {I, f} si dice equilibrio localmente attrattivo se esiste η > 0 tale che, per ogni valore iniziale X0 ∈ I ∩ {z ∈ C : |z − α| < η}, posto Xk = f k (X0 ), risulta lim Xk = α. k
Definizione 4.55. Un equilibrio α del s.d.d. {I, f} si dice equilibrio localmente asintoticamente stabile se `e stabile e localmente attrattivo. Per funzioni derivabili f continua a valere il criterio di stabilit` a del Teorema 3.53, pur di sostituire il modulo di numero reale con quello di numero complesso. Teorema 4.56. Se α `e un equilibrio per il s.d.d. {I, f}, con I ⊂ C, f in C 1 (I), allora
172
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
|f (α)| < 1
⇒
α localmente asintoticamente stabile
|f (α)| > 1
⇒
α instabile
Prova. La dimostrazione di tale teorema nel caso complesso `e formalmente identica al caso reale, salvo il fatto che non vale il teorema di Lagrange. Si pu` o comunque usare l’identit` a seguente: f (z) − f (w) =
z
w
f (u) du =
1
f (w + t (z − w)) (z − w) dt
0
(valida se il segmento che congiunge z a w `e contenuto in I) da cui si ottiene |f (z) − f (w)| ≤ max f |z − w| e max |f | pu` o essere stimato in un opportuno disco di centro α in modo tale che risulti max |f | < 1.
Alla luce del Teorema 4.56 `e naturale conservare anche nel caso complesso la terminologia della Definizione 3.55 (equilibri superattrattivi, neutri). Riconsideriamo dal punto di vista dei sistemi dinamici complessi il metodo di Newton per la ricerca delle radici di un polinomio nel campo complesso. Teorema 4.57. Sia p un polinomio non costante di variabile complessa. Definiamo p (z) Np (z) = z − p (z) dove `e sottointesa l’eventuale semplificazione tra fattori comuni di p e p . Valgono le seguenti conclusioni: 1) Np `e definita e derivabile nell’insieme I di tutti i punti del piano complesso salvo gli zeri di p che non siano anche zeri di p. In particolare, senza ulteriori condizioni, `e definita e continua in tutti gli zeri di p. 2) L’insieme dei punti fissi di Np in I coincide con l’insieme delle radici complesse di p. 3) Tutti i punti fissi di Np sono localmente asintoticamente stabili per il s.d.d. {I, Np }. 4) Gli zeri semplici di p sono superattrattivi per il s.d.d. {I, Np }. Prova. Sia α una radice di p con molteplicit` a m. Allora p (z) = (z − α)m q (z) con q (α) = 0 e p (z) (z − α) q (z) =z− Np (z) = z − p (z) (z − α) q (z) + mq (z) Np (α) = α.
4.7 Sistemi dinamici discreti nel campo complesso
173
Viceversa, se Np (α) = α, allora α − p (α) /p (α) = α cio`e8 p (α) = 0. Infine 2 (p (z)) − p (z) p (z) p (z) p (z) = . (Np ) (z) = 1 − 2 (p (z)) (p (z))2 Dunque, se α `e uno zero semplice di p, cio`e p (α) = 0 e p (α) = 0, allora (Np ) (α) = 0 cio`e α `e stabile e superattrattivo. Se α non `e uno zero semplice, cio`e p (α) = p (α) = 0, allora esiste m ≥ 2 tale che p (z) = (z − α)m q (z) e q (α) = 0; ne segue (Np) (z) =
(z − α)mq (z) m (m − 1) (z − α)m−2 q (z) + 2m (z − α)m−1q (z) + (z − α)m q (z) 2 m (z − α)m−1 q (z) + (z − α)m q (z) q (z) m (m − 1) q (z) + 2m (z − α) q (z) + (z − α)2 q (z) = (mq (z) + (z − α) q (z))2 (Np) (α) = cio`e α `e attrattivo e stabile.
m (m − 1) q (α)2 m−1 <1 = 2 2 m m q (α)
Grazie al fatto che le funzioni di variabile complessa derivabili con derivata continua e non costanti hanno solo zeri isolati e di ordine finito ed intero, si pu` o provare nello stesso modo il seguente risultato di portata pi` u generale con una dimostrazione identica a quella del Teorema 4.57. Teorema 4.58. Sia f ∈ C 1 (Ω), Ω ⊂ C aperto connesso, ed f non costante. Definiamo f (z) Nf (z) = z − f (z) dove `e sottointesa l’eventuale semplificazione di fattori comuni di f e f . Allora: 1) Nf `e definita e derivabile nell’insieme I = Ω\ {z ∈ Ω : f (z) = 0 = f (z)}. 2) Nf `e definita e continua negli zeri di f. 3) L’insieme dei punti fissi di Nf in Ω coincide con l’insieme degli zeri di f. 4) Tutti i punti fissi di Nf sono localmente asintoticamente stabili per il s.d.d. {I, Nf }. 5) Gli zeri semplici di f sono superattrattivi per il s.d.d. {I, Nf }. Enfatizziamo il fatto che la locale asintotica stabilit` a garantisce convergenza solo se il valore iniziale X0 `e scelto “sufficientemente vicino” alla radice che si vuole approssimare. Quanto vicino `e in generale questione delicata che richiede un’analisi accurata caso per caso (si vedano al riguardo il Teorema 4.49 e l’Esempio 4.50). Nell’espressione p (α) /p (α) deve essere sempre sottointesa l’eventuale semplificazione.
8
174
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Esempio 4.59. Sia p (z) = az + b con a e b assegnati in C, a = 0. L’unico zero (−b/a) di p `e globalmente asintoticamente stabile in C per Np (z) = −b/a (tutte le traiettorie sono definitivamente costanti: Xk = −b/a per k ≥ 1) ed il suo bacino di attrazione `e tutto C. Nel caso di funzioni f non lineari il quadro delle fasi di Nf `e decisamente pi` u complicato. Prima di affrontare un’analisi sistematica, il lettore `e invitato a studiare graficamente e con simulazioni al computer le iterazioni di Nf in R corrispondenti a f (x) = x2 ± 1, x ∈ R. In particolare, ci si rende conto che anche nel caso semplice in cui p `e un polinomio (e dunque ha un numero finito di radici e tutte localmente asintoticamente stabili per Np ), il dominio di Np (ossia C privato degli zeri di p che non sono zeri di p) in generale non `e l’unione dei bacini di attrazione degli zeri di p. Studiamo sistematicamente il caso dei polinomi quadratici: p (z) = az 2 + bz + c
a, b, c, ∈ C , a = 0.
(4.3)
La funzione di Newton associata `e pertanto Np (z) = z −
az 2 + bz + c az 2 − c = . 2az + b 2az + b
(4.4)
Lemma 4.60 Se p, Np sono definiti da (4.3) e (4.4), e a = 0 , allora Np `e topologicamente coniugato a Nq (z) =
z2 + D 2z
dove q (z) = z 2 − D
e
D = b2 − 4ac
`e il discriminante di p
tramite il cambio di variabili ϕ (z) = 2az + b. Prova. Basta verificare che ϕ (Np (z)) = Nq (ϕ (z)).
Grazie al Teorema 4.42 ed al Lemma 4.60, per studiare la dinamica di Np `e sufficiente conoscere quella di Nq , con q (z) = z 2 − D, al variare della costante D in C. Cominciamo a studiare il caso D ∈ R, limitandoci per semplicit` a al caso di coefficienti a, b, c reali ed alla dinamica in R. Teorema 4.61. Sia p (x) = ax2 + bx + c con a, b, c, x ∈ R e a = 0. Ne segue: • Se D = 0, allora q (x) = x2 , Nq (x) = x/2 e 0 (la radice doppia di q) `e l’unico punto fisso globalmente asintoticamente stabile per {R, Nq }. Corrispondentemente {R\ {0} , Np } ha un unico punto fisso globalmente asintoticamente stabile: x = ϕ−1 (0) = −b/2a (radice doppia di p)
4.7 Sistemi dinamici discreti nel campo complesso
175
√ • Se D > 0, allora q (x) = x2 − D ha radici ± D che coin 2reali semplici cidono con i punti fissi di Nq (x) = x + D /2x e sono localmente asintoticamente stabili e superattrattive per il s.d.d. {R\√{0} , Nq }. Inoltre √ + D ha come bacino di attrazione (0, +∞), mentre − D ha come bacino di attrazione (−∞, 0). Corrispondentemente {R\ {−b/2a} , Np } ha due punti fissi localmente asintoticamente stabili e superattrattivi: √ x = ϕ−1 ± D = −b ± b2 − 4ac /2a i cui bacini di attrazione sono rispettivamente (−b/2a, +∞) e√(−∞, −b/2a). • Se D < 0, allora q (x) = x2 − D ha radici immaginarie ±i −D che sono i punti asintoticamente stabili per {C\ {0} , Nq } con fissi localmente Nq (x) = x2 + D /2x, ma la dinamica di {R\ {0} , Nq } `e caotica. Corrispondentemente la dinamica di Np `e caotica e priva di punti fissi. Prova. Il caso D = 0 non √ richiede commenti. √ Se D > 0, 0 < X0 < D e Xk = (Nq )k (X0 ), allora valgono X0 < D < X1 e √ D < Xk+1 √ < Xk per k ≥ 1. La monotonia di X ed il Teorema 3.22 implicano limk Xk = √D. √ D < Xk+1 < Xk per k ∈ N e con lo stesso argomento Se D > 0 e D ≤ X0 , allora √ di monotonia limk Xk = D. √ Il caso D > 0 e X0 < 0 `e analogo (limk Xk = − D).
⎯ √D ⎯ - √D X0
⎯ √D
⎯ - √D
Figura 4.28 D > 0, dinamica di Nq (x) = x2 + D /2x , q (x) = x2 − D
176
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Figura 4.29 D < 0, dinamica di Nq (x) = x2 − 1 /2x, q (x) = x2 + 1 Veniamo al caso non banale D < 0. Per evitare complicazioni tecniche, studiamo solo il caso D = −1 cio`e q (x) = x2 + 1 (questo basta perch´e Nx2 +c e Nx2 +1 sono topolo√ gicamente coniugati se c `e positivo mediante il cambio di coordinate ψ (x) = c x , infatti ψ ◦ Nx2 +1 = Nx2 +c ◦ ψ). Gli esperimenti numerici e grafici suggeriscono la caoticit` a della dinamica. Questa pu` o essere dimostrata formalizzando il discorso seguente: consideriamo il prolungamento di Nx2 +1 (x) = x2 − 1 / (2x) con valore ∞ in x = 0 e in x = ∞. In tal modo, Nx2 +1 manda R∪ {∞} in s`e stesso ed `e topologicamente coniugata mediante la funzione τ : [0, 2π) → R∪ {+∞}, τ (x) = cot (x/2) = 1/tg (x/2) alla mappa del raddoppio di fase D : S → S, D (θ) = 2θ(modulo 2π) che sappiamo essere caotica (Esempio 4.21 e Teorema 4.30). Verifichiamo la coniugazione tra Nx2 +1 e D: (cos (x/2))2 − (sin (x/2))2 (cot (x/2))2 − 1 = = 2 cot (x/2) 2 sin (x/2) cos (x/2) cos x = = cot x = τ (D (x)) . sin x
Nx2 +1 (τ (x)) =
4.7 Sistemi dinamici discreti nel campo complesso
177
Le tesi formulate per la dinamica di Np si ottengono da quelle relative alla dinamica di Nq mediante il Lemma 4.60.
Il risultato precedente `e in realt` a un caso particolare del seguente teorema in cui i coefficienti a, b, c del polinomio p sono generici numeri complessi, con a non banale. Teorema 4.62. Siano a, b, c ∈ C ed a = 0. Se il polinomio p (z) = az 2 +bz +c ha due radici distinte z1 , z2 , allora il s.d.d. { C\ {(z1 + z2 ) /2} , Np }
con
Np (z) =
az 2 − c 2az + b
`e caotico sulla retta r perpendicolare al segmento di estremi z1 , z2 e passante per il punto medio (z1 + z2 ) /2. Inoltre tale retta r separa due semipiani aperti che sono i bacini di attrazione di z1 e z2 (stabili e superattrattivi). Se il polinomio p (z) = az 2 + bz + c ha una sola radice, allora tutti i punti di C sono nel bacino di attrazione di tale radice che risulta globalmente asintoticamente stabile.
z1
r z2
Figura 4.30 Il bacino di z1 `e ombreggiato, quello di z2 `e bianco Prova. Per il Lemma 4.60, nel primo caso p `e topologicamente coniugato in C a z 2 − 1 mediante una trasformazione lineare del piano complesso che trasforma z1 e z2 rispettivamente in −1 e +1, nel secondo caso, Np `e topologicamente coniugato in C a Nz 2 . La tesi segue dunque dal Teorema 4.42.
Osservazione 4.63. L’informazione relativa ai bacini di attrazione risale ad Arthur Cayley9 (1879), mentre la descrizione della dinamica su r `e molto pi` u recente. 9
Arthur Cayley, 1821-1895.
178
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Finora siamo stati intenzionalmente vaghi nella descrizione del s.d.d. associato ad Np con p polinomio di secondo grado: anche se Np `e definito in ogni z ∈ C diverso da (z1 + z2 ) /2 = −b/2a tuttavia esiste una infinit` a di valori complessi a partire dai quali le iterazioni di Np non generano una successione. Infatti, az 2 − c se p (z) = az 2 + bz + c, allora Np (z) = e, 2az + b • se b2 − 4ac = 0, allora Np (z) = z/2 e {C\ {0} , Np } `e un s.d.d. ben definito; • se b2 − 4ac = 0, vi sono una infinit` a di punti (insieme che denotiamo con Z) contenuti nella retta r perpendicolare al segmento [z1 , z2 ] nel suo punto medio, a partire dai quali le iterate di Np portano al valore vietato −b/2a in un numero finito di passi; dunque in tale caso il s.d.d. definito correttamente `e {C\Z , Np }. Per provarlo basta studiare il caso p (z) = z 2 + 1, z1,2 = ±i (il caso genesegue rico per coniugazione topologica): in questo semplice caso Np (z) != z 2 − 1 /2z e risolvendo in z l’equazione z ∈ C : w = z 2 − 1 /2z si √ ottengono i due rami di Np−1 : Np−1 (w) = w ± w 2 + 1. Cos`ı Z `e l’insieme di tutti i valori che si ottengono iterando Np−1 a partire da 0: √ √ ϕj1 ◦ϕj2 ◦· · ·◦ϕjk (0), jk = 1, 2, ϕ1 (z) = z+ z 2 + 1, ϕ2 (z) = z− z 2 + 1. In tal modo `e immediato dedurre che Z `e infinito e contenuto in R (ϕ1 `e strettamente monot`ona). Esempio 4.64. Sia p (z) = z 3 − 1. Allora Np (z) = 2z 3 + 1 /3z 2 , i cui punti fissi localmente attrattivi sono 1, e2πi/3 , e4πi/3 . Si provi ad effettuare un esperimento numerico con un computer: scelta una griglia di punti nella regione quadrata di vertici (±1 ± i) 9/5, a partire da ciascuno di tali punti si calcoli il valore delle prime 60 iterazioni di Np ; per la superattrattivit` a, se |X60 − 1| < 1/4 `e ragionevole supporre che X sia nel bacino di attrazione 0 di 1 e decidiamo di colorarlo in grigio, se X60 − e2πi/3 < 1/4 `e ragionevole di attrazione di e2πi/3 e decidiamo di colorarlo supporre che X0 sia nel bacino 4πi/3 in nero, se X60 − e < 1/4 `e ragionevole supporre che X0 sia nel bacino di attrazione di e4πi/3 e decidiamo di colorarlo in bianco. Se le risorse di calcolo lo consentono, senza rendere eccessivamente lunghi i tempi di attesa, si sostituisca 60 con 100. Qualche commento su come sono stati ottenuti i diagrammi: la Figura 4.31 rappresenta i bacini di attrazione delle tre radici complesse di 1 rispetto alla dinamica di Nz3 −1 . Nei punti di una griglia 200 × 200 collocata nel quadrato del piano complesso {z ∈ C : |Re (z)| ≤ 2, |Im (z)| ≤ 2} si calcolano le iterate di Nz3 −1 fino a che si ottiene un valore che differisce meno di 0, 5 da una delle tre radici complesse dell’unit` a (1, exp 2πi/3, exp 4πi/3). Quando `e soddisfatto tale test di prossimit` a si arrestano i calcoli e si assegna un colore convenzionale: grigio in prossimit` a ad 1, nero in prossimit` a ad exp (2πi/3), bianco in prossimit` a ad exp (4πi/3).
4.7 Sistemi dinamici discreti nel campo complesso
179
Figura 4.31 Dinamica del Metodo di Newton relativa a f (z) = z 3 − 1: bacini di a di grigio 1, e2πi/3 , e4πi/3 denotati con varie tonalit`
La Figura 4.32 illustra mediante diverse tonalit` a di grigio i bacini di attrazione per il metodo di Newton Nzn −1 quando n varia da 1 a 12. L’algoritmo `e pi` u raffinato del precedente ed utilizza delle routine di calcolo interne al Mathematica versione 4.1: per ciascun punto della griglia in {z ∈ C : |Re (z)| ≤ 1, 3 , |Im (z)| ≤ 1, 3} si calcolano 35 iterazioni (ricordiamo che tutti gli zeri sono semplici e dunque superattrattivi) poi si attribuisce un valore all’argomento del numero complesso ottenuto (che sar` a praticamente indistinguibile dall’argomento dell’attrattore corrispondente). Esaminiamo comparativamente i vari casi della Figura 4.32. Se n = 1 allora z = 1 `e globalmente asintoticamente stabile e la dinamica `e particolarmente semplice (ricordiamo che Nz−1 (z) = 1). Tutte le traiettorie sono definitivamente costanti. Se n = 2, si conferma quanto detto in precedenza nello studio dettagliato di Nz2 −1 . Ricordiamo che la frontiera (o bordo) dei due bacini pur essendo geometricamente banale (`e una retta), `e sede di una dinamica caotica e contiene un insieme infinito e denso a partire dal quale le traiettorie sono definite solo per un numero finito di passi.
180
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Figura 4.32 Bacini di attrazione in C delle radici n-esime complesse dell’unit` a per la dinamica associata al metodo di Newton Nz n −1 con n = 1, . . . , 12
Quando si passa ad n ≥ 3 la situazione si complica moltissimo: tutti i bacini hanno una frontiera (comune a ognuno di essi) che necessariamente (essendo n > 2) `e un oggetto topologicamente complicato, che presenta molte propriet`a di simmetria e autosimilarit` a, ma non `e un oggetto geometrico elementare. La Figura 4.32 suggerisce una ricchezza di propriet` a delle frontiere che non `e possibile visualizzare graficamente nei dettagli. Osserviamo che se il bordo che separa i bacini di attrazione non `e una curva nel senso elementare abbiamo una manifestazione di comportamento caotico o quantomeno poco prevedibile, di tipo nuovo; la competizione tra pi` u attrattori pu` o determinare l’esistenza di regioni di tipo frattale di dimensione maggiore di 1 nelle quali si ha una dipendenza sensibile dallo stato iniziale: collocando lo stato inziale X0 nel bordo di un bacino di attrazione, ci si trova automaticamente sul bordo di tutti gli n bacini10. Inoltre la ramificazione di tale bordo rende problematiche le previsioni sulla dinamica asintotica per un generico dato iniziale, a meno di non esssere ben all’interno di un bacino.
10 Ricordiamo che z appartiene al bordo dell’insieme E ⊂ C se per ogni r > 0 esistono w ∈ E e u ∈ C\E tali che |z − w| < r e |z − u| < r. Dunque z nel bordo di tutti i bacini significa che per ogni r > 0 esistono w1 , . . . , wn tali che |z − wj | < r ed ogni wj `e nel bacino della j-esima radice complessa di 1.
4.7 Sistemi dinamici discreti nel campo complesso
181
Nel caso di polinomi p di terzo grado, la dinamica in C di Np `e estremamente complessa ed al tempo stesso ricca di strutture topologicamente ed esteticamente interessanti. Concludiamo con lo studio qualitativo di alcuni altri esempi di dinamica complessa. Ci limitiamo alle dinamiche generate da polinomi, perch´e non presentano problemi di dominio, essendo trasformazioni di tutto C in s`e stesso. Esempio 4.65. Sia f (z) = az, a ∈ C. La moltiplicazione per il numero complesso a corrisponde ad una rotazione del piano complesso di angolo pari all’argomento θ di a composta con una omotetia pari al modulo |a| di a: a = |a| (cos θ + i sin θ) = |a| eiθ
θ ∈ [0, 2π) .
Dunque tutte le traiettorie di {C, az} sono del tipo Xk = ak X0 . Il disegno seguente evidenzia i primi passi di alcune traiettorie di {C, az} di punto iniziale X0 = 1. a = (8/7) (cos π/6 + i sin π/6)
8 a= _ 7
æ
( ÷ _23 + _2i )
a = (7/8) (cos π/6 + i sin π/6)
7 a= _ 8
æ
( ÷ _23 + _2i )
Figura 4.33 Traiettorie a spirale del s.d.d. {C, az} : convergenti se |a| < 1 , divergenti se |a| > 1
Dunque: • se |a| < 1, allora 0 `e l’unico equilibrio di {C, az} ed esso `e anche globalmente asintoticamente stabile; • se |a| > 1, allora 0 `e ancora l’unico equilibrio, ma in tal caso `e repulsivo; • se a = 1, allora tutti i punti di C sono equilibri e tutte le traiettorie sono costanti; • se |a| = 1 ma a = 1, allora 0 `e nuovamente l’unico equilibrio, stabile ma non attrattivo: le traiettorie ruotano attorno all’origine; sono tutte periodiche
182
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
se l’argomento di a `e un sottomultiplo di 2π, in caso contrario non esistono orbite periodiche. Osserviamo che restringendo il dominio di f alla circonferenza unitaria S = {z ∈ C : |z| = 1}, il s.d.d. {S, az} con |a| = 1 e a = 1, `e topologicamente transitivo e manifesta dipendenza sensibile dai dati iniziali. Pi` u interessante `e la dinamica generata in C dai polinomi quadratici. ! Esempio 4.66. Il s.d.d. C, z 2 ha due equilibri, 0 e 1. 0 `e localmente asintoticamente stabile e il suo bacino `e {z ∈ C : |z| < 1}. 1 `e repulsivo. Tutti i punti z di modulo unitario e diversi da 1 sono valori iniziali di traiettorie che ruotano sulla circonferenza di raggio 1. Tutti i punti z ∈ C tali che |z| > 1 sono valori iniziali di traiettorie che divergono all’infinito: Xk+1 = Xk2 ,
|X0 | > 1
⇒
lim |Xk | = +∞ k
Come nell’esempio precedente, tutti i polinomi quadratici az 2 + bz + c presentano l’alternativa tra i dati iniziali le cui traiettorie sono divergenti e quelli le cui traiettorie rimangono limitate. 2 Esercizio 4.31. Dato il polinomio k q (z) = z + c, con c, z ∈ C, provare che se |z| > |c| % + 1 allora& limk q (z) = +∞ e di conseguenza per ogni traiettoria del s.d.d. C, z 2 + c vale l’alternativa: `e divergente oppure `e contenuta nel disco {z ∈ C : |z| ≤ |c| + 1}.
L’esercizio precedente potrebbe far pensare che la dinamica del sistema di! namico C, z 2 + c sia relativamente semplice. In realt`a, se c = 0, allora il bordo che separa i due insiemi di dati iniziali in cui le traiettorie divergono o rimangono limitate hanno una struttura molto complicata che prende il nome di insieme di Julia, dal nome del matematico francese Gaston Julia (18931978) che ne ha studiato le propriet` a assai prima che l’avvento dei computers ne consentisse un’efficace visualizzazione mediante simulazioni numeriche. Si dice insieme pieno di Julia e!si denota con Kc l’insieme dei punti iniziali di traiettorie del s.d.d. C, z 2 + c che rimangono limitate. Dunque l’insieme di Julia `e il bordo dell’insieme pieno di Julia. Per effettuare simulazioni numeriche `e utile sfruttare il seguente risultato generale che contiene il Teorema 4.18. Teorema 4.67. Se un polinomio p complesso ha un’orbita periodica attrattiva allora nel bacino dell’orbita vi deve essere almeno uno zero della derivata di p. Questo risultato suggerisce, per trovare le orbite periodiche di q (z) = z 2 + c, di iterare a partire da X0 = 0. Inoltre assicura che di orbite periodiche e stabili ve ne `e al pi` u una. Accenniamo brevemente ai sistemi dinamici di ordine superiore al primo nel campo complesso.
4.7 Sistemi dinamici discreti nel campo complesso 2
2
1
1
0
0
-1
-1
-2 -2
-1
0
1
2
-2 -2
2
2
1
1
0
0
-1
-1
-2 -2
-1
0
1
2
-2 -2
2
2
1
1
0
0
-1
-1
-2 -2
-1
0
1
2
-2 -2
183
-1
0
1
2
-1
0
1
2
-1
0
1
2
Figura 4.34 Insiemi pieni di Julia Kc , c = 0; c = 0, 01 + 0, 4i; c = −1; c = −0, 7 + 0, 2i; c = −0, 09 + 0, 7i; c = −0, 41 + 0, 59i
184
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Definizione 4.68. Se I `e un qualunque sottoinsieme di C ed F : I ×I ×···×I → I n termini
`e una funzione continua, la coppia {I n , F } `e detta sistema dinamico discreto su I, di ordine n, autonomo, in forma normale. Ad un s.d.d. di ordine n `e associato un sistema di infinite equazioni della forma Xk+n = F (Xk+n−1 , Xk+n−2, . . . , Xk ) k ∈ N. (4.5) Ogni n-upla di condizioni iniziali {X0 , X1 , . . . , Xn−1} determina in modo unico la successione che risolve (4.5), che `e detta traiettoria del s.d.d. corrispondente alla n-upla di condizioni iniziali. Esempio 4.69. Sia F : C × C → C definita da F (z, w) = z + w. Si ottiene: Xk+2 = Xk+1 + Xk cio`e la definizione ricorsiva che, con i dati iniziali X0 = 0 e X1 = 1 genera i numeri di Fibonacci, e, per una generica coppia di numeri complessi X0 e X1 genera la successione $ $ √ %n √ %n √ 1+ 5 √ 1− 5 1 1 √ 2X1 − 1 − 5 X0 + √ 2X1 + 1 + 5 X0 . 2 2 2 5 2 5
5 Sistemi dinamici discreti: equazioni vettoriali
In questo capitolo consideriamo l’evoluzione a tempi discreti di quantit` a vettoriali, anzich´e scalari. Ci limitiamo allo studio di leggi lineari (o lineari affini) ad un passo, che descrivono le variazioni di tali quantit` a a passi successivi. Sono discusse alcune applicazioni a modelli della demografia e della genetica. Per una buona comprensione di questo capitolo `e opportuno conoscere alcuni risultati elementari di algebra lineare che, per completezza, sono riportati in Appendice D.
5.1 Definizioni e notazione Consideriamo un semplice esempio: il modello di Leslie (si veda l’Esempio 1.16) per una popolazione X divisa in classi di et` a disgiunte e di ampiezza uguale al passo temporale; per semplicit`a consideriamo solo tre classi d’et`a, in ordine progressivo di anzianit` a. A, B e C denotano le tre corrispondenti successioni scalari A = {Ak }
B = {Bk }
C = {Ck }
a al dove Ak , Bk e Ck indicano la consistenza numerica di ciascuna classe d’et` T tempo k. Con X indichiamo il vettore a tre componenti X = A B C . Se indichiamo con a, b, c i tassi di natalit` a, rispettivamente nelle classi A, B, C, e con α, β e γ i tassi di mortalit`a delle classi A, B e C, si ottiene il sistema che descrive l’evoluzione della popolazione. Per semplicit` a, supporremo γ = 1 (il che equivale a dire che gli individui della classe C non hanno speranza di vita superiore ad un intervallo temporale): ⎧ ⎨ Ak+1 = aAk + bBk + cCk Bk+1 = (1 − α) Ak ⎩ Ck+1 = (1 − β) Bk Con notazione vettoriale, otteniamo la legge ricorsiva Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
186
5 Sistemi dinamici discreti: equazioni vettoriali
Xk+1 = M Xk (5.1) avendo posto
⎡
⎤ Ak Xk = ⎣ Bk ⎦ Ck
⎡
⎤ a b c M = ⎣1 − α 0 0⎦. 0 1−β 0
` immediato esprimere in forma chiusa (provarlo per induzione) il termine E generale di (5.1) Xk = Mk X0
∀k ∈ N
k volte
dove M = M · M· · · · · M ed M · M `e l’usuale prodotto righe per colonne. Tuttavia, nonostante la conoscenza esplicita (non ricorsiva) della successione X, rimane un problema di calcolo: infatti, la moltiplicazione fra matrici `e una operazione lunga anche se effettuata con procedure di calcolo automatico, e deve essere effettuata anche per valori grandi di k. Ad esempio, sapere che al tempo 50 risulta X50 = M50 X0 , non d` a molta informazione sulla suddivisione in classi di et`a della popolazione X50 , a meno di non calcolare effettivamente M50 . Nella pratica anche la dimensione della matrice M `e ben maggiore di tre, il che aumenta in modo sostanziale la complessit`a computazionale del problema. Un poco di algebra lineare pu` o per` o fornire molte informazioni qualitative su Mk X0 , anche senza effettuare il calcolo esatto, o ridurre la complessit`a computazionale se la matrice ha una particolare struttura (come in effetti avviene nel caso del modello di Leslie). k
Ricordiamo due importanti definizioni di algebra lineare (rinviamo all’Appendice D per ulteriori dettagli). Definizione 5.1. Sia M una matrice quadrata di ordine n. Si dicono autovalori di M le radici (nel piano complesso C) del suo polinomio caratteristico P (λ) = det (M − λI) : {λ ∈ C : P (λ) = 0} . Per il Teorema fondamentale dell’Algebra, una matrice M di ordine n ha esattamente n autovalori nel campo complesso (purch´e si contino con la stessa molteplicit` a delle radici di P (λ)). Definizione 5.2. Un vettore V ∈ Rn \ {0} si dice autovettore della matrice quadrata M di ordine n se esiste un numero complesso λ tale che MV = λV.
5.2 Applicazioni alla genetica
187
In tal caso λ `e necessariamente un autovalore della matrice M (associato all’autovettore V). Se `e possibile determinare n autovettori linearmente indipendenti V1 , . . . , Vn , di una matrice M, di ordine n, allora1 V1 , . . . , Vn formano una base di Rn ; pertanto ogni vettore W ∈ Rn pu` o essere rappresentato (in modo unico) mediante tale base come W = c1 V 1 + c 2 V 2 + · · · + c n V n
(5.2)
e questo consente, in tali ipotesi, un semplice calcolo2 dell’espressione Mk W: Mk W = Mk c1 V1 + c2 V2 + · · · + cn Vn = c1 λk1 V1 + · · · + cn λkn Vn (5.3) ove λj `e l’autovalore associato a Vj , j = 1, 2, . . . , n. Qualora non vi siano n autovettori linearmente indipendenti l’esplicitazione di Mk W `e pi` u tecnica (si veda l’Osservazione 5.9). Nel seguito, analogamente al caso scalare, chiameremo orbita o traiettoria una qualsiasi successione di vettori {Xk } che risolve il sistema (5.1). Esercizio 5.1. Determinare, nei vari casi, la soluzione esplicita del s.d.d. vettoriale Xk+1 = M Xk con il dato iniziale X0 : ⎡ ⎤ 0 1 1 0 0 2 3T 2 3T 13 ; 2) M = ⎣ 2 −1 0 ⎦ , X0 = 4 −1 0 ; 1) M = , X0 = 1 2 02 3 −2 −3 ⎡ ⎤ 1 0 −1 2√ 3T 2 − 1 3 −1 . 3) M = ⎣ 0 −1 0 ⎦ , X0 = −1 0 −1
5.2 Applicazioni alla genetica Le caratteristiche dei singoli individui di una specie biologica sono determinate dai geni ereditati dai genitori. Quando un determinato gene G presenta due sole forme dette alleli (allele G e allele g), ogni individuo ereditando un allele da ciascun genitore, pu` o avere nel suo patrimonio genetico quattro tipi di coppie di alleli del gene G: (G, G), (g, g), (G, g), (g, G). I primi due tipi sono detti omozigoti, gli altri eterozigoti. 1
Questo non `e sempre vero, tuttavia questa ipotesi `e verificata in molti casi; ad esempio, se M `e una matrice simmetrica: Mij = Mji , ∀i, j, o se gli autovalori di M sono tutti semplici. 2 Ricordiamo che se λ `e autovalore di una matrice quadrata S con autovettore associato V = 0, allora λk `e autovalore di Sk con autovettore associato V.
188
5 Sistemi dinamici discreti: equazioni vettoriali
Consideriamo, per semplicit`a, il caso in cui l’ordine degli alleli non ha influenza, cio`e consideriamo indistinguibili (G, g) e (g, G). Dunque, abbiamo tre tipi di individui relativamente alle caratteristiche determinate dal gene G: due omozigoti (G, G), (g, g) e un eterozigote (G, g). Legge di Hardy -Weinberg Supponiamo che due geni allelomorfi G e g siano presenti nella popolazione in proporzioni rispettivamente p e q con p, q ∈ [0, 1] e p + q = 1 e che 1) non vi siano mutazioni da G a g o viceversa; 2) nessuno degli individui (G, G), (g, g) o (G, g) sia avvantaggiato rispetto agli altri e gli accoppiamenti avvengano in modo casuale; 3) il numero di individui della popolazione sia molto grande; 4) non vi siano immigrazioni di geni G o g per effetto di incroci con popolazioni contigue. Allora le proporzioni dei due alleli rimangono invariate nelle generazioni successive. Inoltre, le proporzioni di individui rispettivamente G omozigoti, g omozigoti ed eterozigoti sono, a partire dalla prima generazione, p2 , q 2 e 2pq. Ad esempio, se G determina la colorazione cutanea ed `e recessivo3 , mentre g impedisce la formazione del pigmento (gene dell’albinismo), supponendo alla generazione 0 che le percentuali dei due alleli siano rispettivamente 99, 9% e 0, 1% (cio`e p = 0, 999 e q = 0, 001), allora tali percentuali si conservano inalterate nelle generazioni successive. Inoltre, a partire dalla generazione 1 vi `e una frazione q 2 = 0, 000001 pari allo 0, 0001% (un individuo su un milione) di individui albini omozigoti e vi `e una frazione 2pq = 0, 001998 cio`e lo 0, 1998% di albini eterozigoti (complessivamente in tale situazione quasi due individui su mille sono albini). Osservazione 5.3. Si noti che nella pratica si pone il problema inverso: si osserva la popolazione e si deduce, tramite la legge di Hardy-Weinberg la frequenza di ciascuno dei due geni. Osservazione 5.4. Le ipotesi 1) - 4) nella legge di Hardy-Weinberg corrispondono alla stabilit` a (assenza di evoluzione); se una o pi` u fra esse vengono meno si hanno spinte evolutive: • [non 1)] mutazioni g → G o viceversa; • [non 2)] vantaggio di individui con una determinata composizione genetica (migliore fitness) e conseguente selezione naturale; • [non 3)] limitazione numerica della popolazione; • [non 4)] migrazione dei geni da popolazioni contigue. 3
Se un individuo eterozigote (G, g) presenta le qualit` a corrispondenti al gene G, allora G si dice dominante, se presenta quelle legate al gene g, allora G si dice recessivo.
5.2 Applicazioni alla genetica
189
Prova. (della legge di Hardy-Weinberg) Non `e necessario conoscere P0 cio`e p al tempo 0 (Q0 , cio`e q al tempo 0, si deduce da Q0 = 1 − P0 ), n´e il numero di maschi o femmine. Scriviamo un s.d.d. del primo ordine per Pk cio`e esprimiamo Pk+1 in funzione del valore di Pk . Siano, nella generazione k, M ed F rispettivamente i numeri (incogniti) di maschi e di femmine. Siano, nella generazione k + 1: A a b N
la proporzione di omozigoti (G, G) la proporzione di omozigoti (g, g) la proporzione di eterozigoti (G, g) il numero totale di individui.
Un individuo (G, G) riceve due alleli G dai genitori della generazione k (uno da ciascun genitore) e vi sono (Pk M ) (Pk F ) possibili modi di riceverli dalle diverse possibili coppie di genitori M F . Dunque la frazione di omozigoti (G, G) `e A=
(Pk M ) (Pk F ) = Pk2 . MF
Corrispondentemente, vi sono Pk2 N individui omozigoti (G, G) nella generazione k + 1 ed essi hanno complessivamente 2Pk2 N alleli G. Analogamente, sempre nella generazione k + 1, vi `e una frazione 2Pk (1 − Pk ) di individui eterozigoti, cio`e vi sono 2Pk (1 − Pk ) N individui eterozigoti, ed essi hanno in totale 2Pk (1 − Pk ) N alleli G e 2Pk (1 − Pk ) N alleli g. La popolazione ha complessivamente 2Pk2 + 2Pk (1 − Pk ) N = 2Pk N alleli G (gli omozigoti (g, g) non ne hanno), mentre il totale di alleli `e 2N . Dunque la frazione Pk+1 di alleli G nella k + 1 generazione `e 2N Pk = Pk Pk+1 = 2N cio`e Pk `e costante in k: Pk = P0 = p per ogni k, e per sostituzione • gli individui G omozigoti nella generazione k + 1 sono p2 N , cio`e la frazione 2 p del totale; • gli individui g eterozigoti nella generazione k + 1 sono 2pqN , cio`e la frazione 2pq del totale; • gli individui g omozigoti nella generazione k + 1 sono q2 N , cio`e la frazione q2 del totale.
La legge di Hardy-Weinberg spiega perch´e gli alleli recessivi non scompaiono dalla popolazione. Supponiamo ora, a differenza delle ipotesi precedenti, che venga meno la condizione 2: ad esempio, gli omozigoti (g, g) sono sterili o muoiono prima della maturit` a sessuale e g `e recessivo. Allora G ha un vantaggio selettivo e g `e un gene letale (bench´e recessivo). Principio di selezione Se gli individui omozigoti (g, g) non si riproducono, mentre gli eterozigoti e gli omozigoti (G, G) si riproducono normalmente, allora la frazione di g alleli nella generazione k-esima `e dato (in assenza di mutazioni) da
190
5 Sistemi dinamici discreti: equazioni vettoriali
Qk =
Q0 1 + kQ0
dove Q0 `e la frazione iniziale. Dunque l’allele letale g tende ad estinguersi (sia pur lentamente). Prova. Siano come nel caso precedente Pk2 , 2Pk Qk e (1 − Pk )2 le proporzioni di (G, G), (G, g) , (g, g) della popolazione alla (k + 1)-esima generazione, composta da N individui. Ci interessa la frazione di alleli recessivi g presenti nella popolazione che giunger` a a riprodursi, cio`e 2 Pk + 2Pk (1 − Pk ) N = Pk (1 + Qk ) N . Essi hanno 2Pk (1 + Qk ) N alleli in totale. Ma l’allele g `e presente solo negli eterozigoti, cio`e ve ne sono 2Pk Qk N , dunque la frazione di alleli g nella popolazione della (k + 1)-esima generazione che giunge a riprodursi `e: Qk+1 =
2Pk Qk N Qk . = 2Pk (1 + Qk ) N 1 + Qk
Otteniamo cos`ı un s.d.d. non lineare del primo ordine Qk+1 = f (Qk ) con f funzione di Moebius (si veda il paragrafo 2.7 ed in particolare l’Esempio 2.68). Con la otteniamo la soluzione esplicita sostituzione Wk = Q−1 k Qk =
Q0 . 1 + kQ0
` opportuno fare qualche considerazione sul principio di selezione. Abbiamo E gi` a osservato che la frazione di g alleli tende a zero, ma lentamente: se, ad esempio, nella popolazione iniziale vi `e solo l’1% di tali alleli, cio`e Q0 = 0, 01 allora Q1 = 1/101 = 0, 0099009901 ossia Q1 non `e molto diverso da Q0 ; per Q0 Q0 dimezzare la frazione iniziale (Qk = Q0 /2) occorre risolvere = 2 1 + kQ0 dunque k = 1/Q0 = 100 , cio`e occorrono 100 generazioni (circa 2500 anni per una popolazione umana). Il principio di selezione `e attivo in natura nei casi in cui gli omozigoti (g, g) sono sterili mentre gli eterozigoti e gli omozigoti (G, G) non lo sono. Vi `e chi ha pensato di applicare il principio di selezione alla specie umana nel caso di alleli non letali e che non impediscono la riproduzione, ma corrispondono a caratteristiche fisiche o mentali non desiderate in determinati contesti culturali, cercando di simulare l’effetto descritto con prescrizioni sociali (eugenetica negativa): divieto di avere figli e perfino soppressione della prole, con l’intento di eliminare dalla popolazione il tratto non desiderato (se l’allele g `e recessivo tale “forzatura” sociale ovviamente poteva essere esercitata solo sugli omozigoti (g, g) prima che vi fosse la possibilit` a di determinare il corredo genetico). A prescindere da considerazioni etiche, e dalla soggettivit` a con cui possono essere considerate non desiderabili determinate caratteristiche degli individui, le considerazioni quantitative precedenti illustrano il motivo della totale inefficacia della eugenetica negativa sulla popolazione umana: la
5.2 Applicazioni alla genetica
191
lentezza dell’effetto `e tale da rendere certa una variazione dei “gusti” sulle caratteristiche desiderate prima che gli effetti risultino rilevanti. A questo bisogna aggiungere che sul lungo periodo l’ipotesi di assenza di mutazioni `e assai debole. Infine, la differenza biologica `e sempre una ricchezza e, in particolare la variet` a genetica in una specie va preservata perch´e spesso, caratteri apparentemente insignificanti (e relativamente poco diffusi) si rivelano sorprendentemente abbinati a maggiori resistenze a determinate patologie. Esaminiamo infine gli effetti di una mutazione senza vantaggio selettivo; supporremo che nessuno dei due alleli sia dominante e che la probabilit` a di riprodursi degli individui non dipenda dall’allele. Siano Pk e Qk rispettivamente la frazione di alleli G e g nella popolazione alla generazione k prima della mutazione. In assenza di mutazione, avremmo Pk+1 = Pk e Qk+1 = Qk per la legge di Hardy-Weinberg. Assumiamo invece che una frazione s ∈ (0, 1) di alleli G muti in alleli g prima della riproduzione. Ripetendo l’argomento della prova di Hardy-Weinberg, otteniamo: Pk+1 = (1 − s) Pk
∀k
k
Pk = (1 − s) P0 Riassumendo, abbiamo ottenuto il Principio di mutazione Se 1) la frazione di alleli G che mutano in g `e s ∈ (0, 1) e non vi `e mutazione di g in G; 2) nessuno degli individui (G, G), (g, g) o (G, g) `e avvantaggiato rispetto agli altri e gli accoppiamenti avvengono in modo casuale; 3) il numero di individui della popolazione `e molto grande; 4) non vi sono immigrazioni di geni G o g per effetto di incroci con popolazioni contigue allora la proporzione di G alleli nella k-esima generazione `e k
Pk = (1 − s) P0 . Osserviamo che Pk tende a zero ma non cos`ı rapidamente come potrebbe sembrare, perch´e s `e in generale piccolo. Le variazioni sono pi` u rapide se le generazioni hanno breve durata temporale, come nel caso di alcuni batteri. Osservazione 5.5. Nei tre esempi precedenti si `e dedotta l’evoluzione del vet T tore Pk Qk dallo studio della quantit` a scalare Pk , sfruttando la semplice ed esplicita relazione tra Pk e Qk : Pk + Qk = 1. Esempio 5.6. (Geni legati al sesso) Le caratteristiche dei singoli individui (dette fenotipi ) sono determinate dalle caratteristiche genetiche (dette genotipi ). Molti fenotipi sono determinati da coppie di geni, detti alleli. Se un allele
192
5 Sistemi dinamici discreti: equazioni vettoriali
a `e dominante mentre l’altro allele `e recessivo, allora un individuo presenta il carattere recessivo α se e solo se entrambi gli alleli della corrispondente coppia nel suo corredo cromosomico sono recessivi: sono cio`e (α, α). Per taluni caratteri le donne hanno una coppia di alleli, mentre gli uomini ne hanno uno solo (ereditato dalla madre): questi caratteri sono detti caratteri legati al sesso. Daltonismo ed emofilia sono esempi (che comportano svantaggi, pur non essendo letali) di tali caratteri legati al sesso. Pertanto, se un uomo eredita l’allele a, presenter` a il fenotipo dominante (a), se eredita l’allele α, presenter` a il fenotipo recessivo (α). Poich´e gli alleli che corrispondono al daltonismo o all’emofilia sono entrambi recessivi, vedremo nel seguito come sia molto pi` u probabile che tali fenotipi (caratteri legati al sesso) si manifestino nell’uomo che nella donna. Da una coppia costituita da una donna di genotipo (a, α) ed un uomo (a) (entrambi non affetti dalla malattia, perch´e a `e dominante), un eventuale figlio maschio erediter`a al 50% l’allele a o l’allele α dalla madre, e dunque ha il 50% di probabilit` a di essere di genotipo (α), cio`e di presentare manifestamente la malattia (fenotipo α); una eventuale figlia femmina avr` a con pari probabilit` a uno dei due genotipi (a, a) o (a, α) e in ogni caso non manifester` a la malattia (nel secondo caso, sar`a portatrice sana). Vogliamo studiare l’andamento del carattere nell’arco di pi` u generazioni. Limitatamente alla popolazione femminile nella generazione k, siano Pk la proporzione di a alleli e Qk = 1 − Pk la proporzione di α alleli . Analogamente, siano Pk e Qk le corrispondenti frazioni (con Pk + Qk = 1) nella popolazione maschile alla generazione k-esima. Siano, rispettivamente, u, v, w le frazioni nella popolazione femminile alla generazione (k + 1)-esima di omozigoti dominanti (a, a), eterozigoti (a, α) ed omozigoti recessivi (α, α). Si deduce ⎧ ⎨ u = P k Pk v = P k Qk + Pk Q k ⎩ w = Q k Qk Se vi sono D donne nella generazione (k + 1)-esima, esse avranno complessivamente 2D alleli del tipo in esame. Gli a alleli sono 2uD (dovuti agli omozigoti dominanti) pi` u vD (dovuti agli eterozigoti) cio`e (2u + v) D = D (2Pk Pk + Pk Qk + Pk Qk ) = da Pk +Qk =1=Pk +Qk
= D (Pk Pk + Pk Qk + Pk Pk + Pk Qk ) = = D (Pk + Pk ) . La frazione Pk+1 di a alleli nella popolazione femminile alla (k + 1)-esima generazione `e D (Pk + Pk ) 1 Pk+1 = = (Pk + Pk ) . 2D 2 Venendo agli uomini, che hanno un solo allele, la frazione di essi che possiede l’allele a (rispettivamente α) nella generazione k coincide con la proporzione di
5.2 Applicazioni alla genetica
193
alleli a (rispettivamente α) nella stessa generazione, cio`e Pk (rispettivamente Qk ). Per passare alla frazione di uomini con allele dominante alla generazione k + 1 occorre calcolare la probabilit` a che un uomo erediti l’allele dominante a. Poich´e lo eredita da una donna della generazione k, risulta Pk+1 = Pk
Qk+1 = Qk .
Riassumendo, la frazione di a allele (dominante) tra uomini e donne verifica il sistema dinamico discreto vettoriale ad un passo ⎧ ⎨ Pk+1 = 1 (Pk + Pk ) 2 ⎩ Pk+1 = Pk 1◦ metodo di analisi dell’Esempio 5.6 Per sostituzione, ci riduciamo ad un sistema dinamico discreto scalare a due passi (sostituiamo k +1 a k nella prima equazione, poi utilizziamo la seconda): Pk+2 =
1 1 1 (Pk+1 + Pk+1 ) = Pk+1 + Pk 2 2 2
ossia 2Pk+2 − Pk+1 − Pk = 0 L’equazione caratteristica 2λ2 − λ − 1 = 0 ammette le soluzioni λ1 = 1 e λ2 = −1/2; quindi P k = c1 + c2
1 − 2
k ∀k ∈ N .
Imponendo le condizioni iniziali P0 e P1 ricaviamo poi ⎧ ⎪ ⎨ c1 = P0 + 2P1 P 0 = c1 + c2 3 ⇒ 1 2 ⎪ P 1 = c1 − c2 ⎩ = (P c 2 0 − P1 ) 2 3 Osserviamo che
P0 + 2P1 . 3 Poich´e l’attuale popolazione `e il risultato del succedersi di molte generazioni precedenti, possiamo assumere k grande, e dunque Pk = c1 l’attuale frazione di alleli dominanti nell’attuale popolazione femminile (in questi discorsi il “dato iniziale” `e privo di significato). k−1 Poich´e anche Pk = Pk−1 = c1 + c2 (−1/2) `e prossimo a c1 , possiamo lim Pk = c1 = k
194
5 Sistemi dinamici discreti: equazioni vettoriali
ritenere Pk = c1 sia l’identico valore della frazione di alleli a nella popolazione maschile. Dunque, la frazione di allele dominante a (rispettivamente allele recessivo α) si stabilizza su un valore c1 = r (rispettivamente 1 − r) sia per la popolazione maschile sia per la popolazione femminile. Ne segue che in ciascuna generazione le frazioni di omozigoti dominanti, eterozigoti ed omozigoti recessivi nella popolazione femminile sono, rispettivamente, u = r2
2
v = 2r (1 − r)
w = (1 − r) .
Per un particolare tipo di daltonismo, la frazione di α allele, e corrispondentemente la proporzione di maschi che presentano tale problema visivo risulta circa 1 − r = 0, 01. Invece, la frazione di donne con la stessa patologia `e 2 2 (1 − r) = (0, 01) = 0, 0001. 2◦ metodo di analisi dell’Esempio 5.6 Posto ( ) ( ) P 1/2 1/2 X= M= P 1 0 il vettore frazione di allele dominante delle popolazioni femminile e maschile `e una successione di valori che verifica il sistema dinamico discreto vettoriale Xk+1 = M Xk la cui soluzione `e Xk = Mk X0
T con X0 = P0 P0 . L’equazione caratteristica det (M − λI) = 0, cio`e 2λ2 − λ − 1 = 0 ammette le soluzioni λ1 = 1
λ2 = −1/2 .
Un autovettore V1 relativo a λ1 `e una soluzione del sistema lineare omogeneo (M − λ1 I) V1 = 0 ossia, in componenti ⎧ 1 1 ⎪ ⎨ − V11 + V12 = 0 2 2 ⎪ ⎩ V11 − V12 = 0
⇒
V11 = V12 .
T Scegliamo V1 = 1 1 . Analogamente, un autovettore V2 relativo all’autovalore λ2 risolve il sistema lineare omogeneo (M − λ2 I) V2 = 0 ossia, in componenti
5.2 Applicazioni alla genetica
195
⎧ 1 ⎪ ⎪ ⎨ V11 + 2 V12 = 0 1 ⇒ V11 = − V12 . ⎪ 2 ⎪ ⎩V + 1V = 0 11 12 2 T Scegliamo V2 = −1 2 . Per calcolare Mk X0 , scriviamo dapprima X0 come combinazione lineare di V1 e V2 : c 1 , c2 ∈ R X0 = c1 V1 + c2 V2 (le costanti c1 e c2 esistono e sono uniche); ne segue (vedi la (5.3)) Xk = M X0 = c1 1 V + c2 k
k
1
1 − 2
k V2 .
k
Poich´e lim (−1/2) = 0, si ricava k
( ) 1 lim Xk = c1 V = c1 . 1 k 1
T Dato che Xk = Pk Pk , si riottiene la conclusione che lim Pk = lim Pk = c1 = k
k
1 (P0 + 2P1 ) 3
cio`e dopo molte generazioni, le due frazioni si stabilizzano e sono uguali fra loro. La selezione genetica non elimina completamente le malattie recessive che non risultano letali prima del raggiungimento dell’et` a riproduttiva. Abbiamo gi` a osservato che la diversit`a biologica `e un fatto positivo per il patrimonio genetico di una specie in quanto a volte allo stesso genotipo recessivo si accompagnano pi` u caratteri del fenotipo, solo alcuni dei quali comportano svantaggi biologici. Un esempio classico a tale rigurado `e dato dalla resistenza alla malaria associata alla talassemia o anemia mediterranea. Osservazione 5.7. Il fatto di avere due metodi di analisi (scalare a pi` u passi o vettoriale ad un passo) `e di natura generale. Pi` u precisamente: un’equazione scalare lineare, omogenea, di ordine n Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = 0
a0 = 0
con assegnate condizioni iniziali X0 , X1 , . . . , Xk−1 , `e equivalente, come si pu`o verificare per semplice sostituzione, al sistema lineare ad un passo Vk+1 = FVk T con dato iniziale V0 = X0 X1 · · · Xk−1 , dove
196
5 Sistemi dinamici discreti: equazioni vettoriali
⎤ 0 ··· 0 ⎢ 0 ··· 0 ⎥ ⎥ ⎢ ⎢ 1 · · · 0 ⎥ ⎥ ⎢ F=⎢ .. . . .. ⎥ ⎢ . . . ⎥ ⎥ ⎢ ⎣ 0 0 0 0 ··· 1 ⎦ −a0 −a1 −a2 −a3 · · · −an−1 ⎡
0 0 0 .. .
1 0 0 .. .
0 1 0 .. .
T Vk = Xk Xk+1 · · · Xk+n−1
Ovviamente, il polinomio caratteristico `e lo stesso (a meno del segno!) e per questo `e indicato con lo stesso nome. F `e detta forma elementare di Frobenius. Viceversa, ogni s.d.d. vettoriale di dimensione n, Vk+1 = MVk , con det M = 0 e tutti gli autovalori della matrice M che hanno molteplicit` a geometrica 1 (non si esclude che alcune molteplicit`a algebriche siano maggiori di 1) pu` o essere trasformato in una “equazione lineare omogenea ad n passi” Zk+n = −
n
bn−j Zk+n−j
(5.4)
j=1
con condizioni iniziali Z0 = W0 Il polinomio
Z1 = W1
...
⎛ P (λ) = (−1)n ⎝λn +
n
Zn−1 = Wn−1 . ⎞ bn−j λn−j ⎠
j=1
`e il polinomio caratteristico di M calcolato in λ ⎡ 0 1 0 0 ⎢ 0 0 1 0 ⎢ ⎢ 0 0 0 1 ⎢ −1 UMU = ⎢ . .. .. .. ⎢ .. . . . ⎢ ⎣ 0 0 0 0 −b0 −b1 −b2 −b3
e W = U V0 dove ⎤ ··· 0 ··· 0 ⎥ ⎥ ··· 0 ⎥ ⎥ .. ⎥ .. . . ⎥ ⎥ ··· 1 ⎦ · · · −bn−1
Si noti che (5.4) `e una vera equazione ad n passi perch´e b0 = (−1)n det M = 0. In presenza di autovalori con molteplicit` a geometrica maggiore di 1 il s.d.d. vettoriale Vk+1 = MVk non `e equivalente ad una singola equazione ad n passi (perch`e ogni matrice in forma elementare di Frobenius ha solo autovalori con molteplicit` a geometrica esattamente uguale a 1), tuttavia il sistema vettoriale si disaccoppia in pi` u equazioni ciascuna delle quali `e equivalente ad una singola equazione a pi` u passi (la somma del numero di passi delle varie equazioni `e uguale ad n). Ci si potrebbe chiedere quale sia il metodo migliore: in realt` a coincidono. Tuttavia, la struttura ad un passo (equazione vettoriale) `e pi` u naturale in molti problemi e in dimensione alta `e pi` u semplice la trattazione diretta del
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
197
sistema vettoriale al fine di ottenere informazioni qualitative sulle soluzioni. In ogni caso, se la dimensione n del vettore `e grande, allora le radici del polinomio caratteristico non sono calcolabili esattamente ma possono essere solo stimate. In generale, non `e per`o vero che un qualsiasi sistema lineare vettoriale ad un passo Vk+1 = MVk sia riconducibile ad una equazione scalare, lineare di ordine n: se n > 1 allora In non `e simile ad una matrice nella forma elementare di Frobenius.
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari Torniamo ad esaminare il caso generale del sistema dinamico discreto vettoriale, lineare, omogeneo, ad un passo (di dimensione n): Xk+1 = M Xk
∀k ∈ N
(5.5)
e supponiamo che λj ∈ C, j = 1, 2, . . . , n, siano gli autovalori di M. ` naturale definire equilibrio di (5.5) le soluzioni V ∈ Rn di V = MV, cio`e E gli autovettori di M associati all’autovalore 1 e, ovviamente, l’origine di Rn , che `e sempre un equilibrio perch´e 0 = M 0 per ogni M. Teorema 5.8. Se |λj | < 1 per ogni autovalore λj di M, allora 0 `e l’unico equilibrio del s.d.d. e tutte le soluzioni di (5.5) per qualunque condizione iniziale X0 verificano lim Xk = 0 . k
In tal caso, si dice che l’equilibrio 0 `e stabile ed attrattivo. Prova. Se esiste una base di autovettori Vj di M, allora, per ogni X0 , esistono (e sono uniche) n costanti c1 , . . . , cn tali che X0 =
n
cj V j
j=1 k
k
Xk = M X0 = M
n
cj V
j=1
Cos`ı lim Xk Rn k
j
=
n
cj Mk Vj =
j=1
n
cj λkj Vj .
j=1
4 4 n 4 4 disuguaglianza triangolare 4 k j4 = lim 4 cj λj V 4 ≤ k 4 4 j=1
n 4 4
omogeneit` a della norma 4 k j4 ≤ lim 4cj λj V 4 = k
j=1
n 4 4
4 4 |cj | 4Vj 4 λkj = teorema limite somma = lim k
=
n
j=1
j=1
4 4 4 4 |cj | 4Vj 4 lim |λj |k = 0. k
(5.6)
198
5 Sistemi dinamici discreti: equazioni vettoriali
Se non esiste una base di autovettori, la prova `e pi` u tecnica ma il risultato continua a valere. Si considera una base di Rn associata alla forma canonica di Jordan (Appendice D): tale base `e costituita da autovettori generalizzati; esplicitamente, a algebrica di λj . sono soluzioni di (M − λj In )mj W = 0 dove mj `e la molteplicit` M si decompone come M = S + T, dove S `e diagonale (i termini sulla diagonale sono gli autovalori) e T `e nilpotente, perci` o ST = TS, e si pu` o facilmente esplicitare l’espressione della potenza k-esima di M: Mk = Sk + kSk−1 T +
k (k − 1) k−2 2 T + · · · + kSTk−1 + Tk . S 2
(5.7)
Si noti che nella (5.7), per ogni k, possono essere diversi da O al pi` u i primi n addendi4 .
a
b
0 Figura 5.1 Illustrazione del Teorema 5.8: a)
1 0 1 0, 5 0 0 −0, 5 , b) 0 0, 3 0, 5 0
Dunque, la soluzione Xk si esprime come combinazione lineare finita degli autovettori generalizzati W j a coefficienti dipendenti dalla rappresentazione di X0 nella kh con 0 ≤ h ≤ n. Dunque, anche in quebase di Jordan, moltiplicati per λk−h j sto caso, vale limk→+∞ Xk = 0 per ogni dato iniziale X0 , grazie all’implicazione |λ| < 1 ⇒ lim kn λk = 0. k
Osservazione 5.9. Esplicitando l’argomento della dimostrazione precedente nel caso di matrice M non diagonalizzabile, a partire da (5.7) si pu` o provare che, indicati con Wj,i,r gli autovettori generalizzati di M nella base di Jordan, ove j = 1, . . . , J ; J `e il numero degli autovalori distinti di M ; i = 1, . . . , Jj ; Infatti: Tm = O se m `e la massima dimensione di un sottoblocco di Jordan, e vale m ≤ n.
4
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
199
Jj `e il numero dei sottoblocchi di Jordan relativi all’autovalore λj ; r = 1, . . . , si ; si `e la dimensione dell’i-esimo sottoblocco di Jordan relativo a λj ; Jj si `e la molteplicit` a dell’autovalore λj , mj = i=1
allora da X0 =
Jj si J
cj,i,r Wj,i,r
j=1 i=1 r=1
e
MWj,i,r = λj Wj,i,r + Wj,i,r+1 MWj,i,si = λj Wj,i,si
r < si
si esplicita il termine generale definito da Xk = Mk X0 : Jj si min(si ,k) J k λk−h+1 cj,i,r−h+1 Wj,i,r . Xk = j h − 1 j=1 i=1 r=1 h=1
Tale espressione si riduce alla (5.6) nel caso (diagonalizzabile) in cui vale mj = 1 per ogni j. Senza sviluppare in dettaglio l’analisi qualitativa delle traiettorie corrispondenti alle soluzioni del s.d.d. lineare omogeneno Xk+1 = M Xk , possiamo dire che i modi naturali delle soluzioni (potenze intere dell’autovalore, dalle cui combinazioni lineari vettoriali `e costituita la soluzione generale) hanno un andamento qualitativo che dipende solo dalla posizione del corrispondente autovalore nel piano complesso (in particolare, si ha convergenza a zero se |λ| < 1, divergenza all’infinito se |λ| > 1, mentre |λ| = 1 assicura la limitatezza). Alla luce dell’Osservazione 5.7, la Figura 2.7 fornisce informazioni qualitative anche sui modi naturali del caso vettoriale in esame. Esempio 5.10. Se M `e una matrice di ordine 2 con un solo autovalore λ di molteplicit` a algebrica 2 e geometrica 1, allora M non `e diagonalizzabile. Sia V un autovettore di M di norma 1 e sia U tale che (M − λIn ) U = V ed U = 1. Allora U `e un autovettore generalizzato indipendente da V ed M `e nella forma di Jordan rispetto alla base {V, U}. Infine, se X0 = aV + bU, allora Xk = aλk + bkλk−1 V + bλk U. Analizziamo ora i casi in cui gli autovalori λj non sono strettamente minori di 1 in modulo, ma verificano solo la disuguaglianza |λj | ≤ 1. Osserviamo che gli equilibri sono caratterizzati dalla condizione X = M X e dunque sono tutti gli autovettori dell’eventuale autovalore λ = 1. Limitiamoci, per semplicit` a, al caso n = 2 ed M reale. Nel seguito `e fissato X0 = c1 V1 + c2 V2
200
5 Sistemi dinamici discreti: equazioni vettoriali
dove V1 e V2 sono autovettori generalizzati (in particolare, almeno V2 `e sempre autovettore) di M corrispondenti alla base associata alla forma canonica di Jordan. 1) Se λ1 = 1, |λ2 | < 1, allora tutto lo spazio generato da V1 `e costituito da equilibri e la soluzione `e Xk = c1 V1 + c2 λk2 V2 e poich´e lim λ2k = 0, risulta k
lim Xk = c1 V1 k
dove c1 dipende solo dal valore iniziale. 0 `e un equilibrio stabile ma non attrattivo poich´e le soluzioni possono avere come limite qualunque multiplo di V1 , e tali multipli sono tutti equilibri. Questo `e il caso dell’Esempio 5.6. 2) Se λ1 = −1, |λ2 | < 1, ragionando come sopra, da λk2 → 0 segue k
Xk ∼ c1 (−1) V1 . La traiettoria di Xk approssima una traiettoria 2 periodica che, tramite c1 , dipende da X0 .medskip 3) Se λ1 = 1, λ2 = −1, abbiamo k
Xk = c1 V1 + c2 (−1) V2 cio`e un’orbita di periodo 2 (o 2 ciclo) dipendente, tramite c1 e c2 , da X0 . 4) Se λ1 = a + ib e λ2 = a − ib, a e b numeri reali tali che a2 + b2 = 1, allora esiste θ ∈ [0, 2π) tale che ( M=
) ( ) a −b cos θ − sin θ = . b a sin θ cos θ
M `e dunque una matrice di rotazione (cio`e moltiplicare a sinistra un vettore V ∈ R2 per M significa ruotarlo positivamente di un angolo di θ radianti). Dunque, se θ = 2πk/h con k, h ∈ Z primi fra loro, allora Xk ha un comportamento periodico di periodo |h|, cio`e Xk+l|h| = Xk
∀l ∈ N;
inoltre, Xk = X0 , ∀k ∈ N. Se non esistono tali h, k non si ha periodicit` a, ma comunque tutti gli Xk appartengono alla stessa circonferenza: Xk = X0 , ∀k ∈ N; inoltre si potrebbe provare che in tal caso ogni traiettoria `e densa in questa circonferenza.
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
201
X1
X2
X0 , X6
X3
X5
X4
2 3T Figura 5.2 Esempio di orbita (caso 4) : θ = π/3, X0 = cos (π/6) sin (π/6)
5) Se λ1 = λ2 = 1 ed esistono due autovettori V1 e V2 linearmente indipendenti, allora ∀k ∈ N.
Xk = c1 V1 + c2 V2 = X0
6) Se λ1 = λ2 = −1 ed esistono due autovettori V1 e V2 linearmente indipendenti, allora k
k
k
∀k ∈ N.
Xk = c1 (−1) V1 + c2 (−1) V2 = (−1) X0 7) Se λ1 = λ2 = 1 e
(
10 M= a1
) a = 0 (
allora Mk =
1 0 ka 1
)
e da X0 = c1 V1 +c2 V2 , si ottiene la soluzione seguente, o essere ) illimita( che pu` 0 . ta: Xk = Mk X0 = c1 V1 + c2 V2 + ka c1 V11 + c2 V12 8) Se λ1 = λ2 = −1 e ( M=
) ( ) −1 0 10 = (−1) a −1 −a 1 (
tenendo conto che k
M = (−1) k
10 −ka 1
a = 0 )
da X0 = c1 V1 +c2 V2 si ottiene la soluzione seguente, che pu` o essere illimitata: ) ( 0 k k 1 2 c1 V + c2 V − ka . Xk = M X0 = (−1) c1 V11 + c2 V12
202
5 Sistemi dinamici discreti: equazioni vettoriali
Le conclusioni relative agli ultimi due casi seguono dalla seguente decomposizione M = S + T con S matrice diagonale e T matrice nilpotente; poich´e ST = TS e T2 = O, si dimostra agevolmente (si veda l’Esercizio 5.7) che Mk = Sk + kTSk−1 .
Nodo stabile 0 < l 1 < l 2 < 1
Nodo instabile l 1 > l 2 > 1
Sella 0 < l 1 < 1, l 2 >1
(M diagonale) Nodo 0 < l 1 =l 2 <1
Nodo degenere 0 < l 2
(M non diagonalizzabile) Nodo 0 < l 1 =l 2 < 1
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
(M triangolare sup.) Nodo l 1 =l 2 = 1
( l j non reale) Fuoco instabile
|l j | > 1
( l j non reale) Fuoco stabile
( l j non reale) Centro
203 |l j | <
|l j |
1
=1
Figura 5.3 Traiettorie di s.d.d. bidimensionali lineari nel piano delle fasi (λ1 , λ2 autovalori della matrice reale M)
Invece, se esiste un λj tale che |λj | > 1, allora esistono soluzioni illimitate; ad esempio, con X0 = Vj (autovettore relativo a λj ), si deduce 8 8 Mk X0 = Mk Vj = λkj X0 e lim 8Mk X0 8 = +∞. k
Per avere maggiori informazioni si pu` o studiare Yk = μ−k Xk dove si `e posto μ = maxj |λj | > 1. In tal caso, Yk rientra nei casi studiati in precedenza e si possono dedurre informazioni qualitative sul comportamento di Xk per k “grande”. Nel caso di s.d.d. vettoriali bidimensionali Xk+1 = MXk , con M matrice di ordine 2, `e ancora possibile ricorrere all’analisi grafica per rappresentare le traiettorie. Se ne pu` o dare una rappresentazione prospettica nello spazio a tre dimensioni
204
5 Sistemi dinamici discreti: equazioni vettoriali
(t, X1 , X2 ) come in Figura 5.4a, oppure considerare (Figura 5.4b) le proiezioni sul piano (X1 , X2 ), detto piano delle fasi, come nella Figura 5.3 che sintetizza i risultati dell’analisi precedente X1 X2
t
Figura 5.4. a) grafico di una traiettoria b) una traiettoria nel piano delle fasi Esercizio 5.2. Determinare la soluzione del s.d.d. vettoriale Xk+1 = MXk con 0 1 0 1 0 1 11 10 11 1) M = 2) M = 3) M = 01 01 11
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron In questo paragrafo proviamo un risultato teorico sulle propriet` a algebriche delle matrici con tutti gli elementi positivi. Tale risultato sar` a utile nelle applicazioni demografiche del paragrafo successivo. Un sistema dinamico discreto, lineare positivo `e un sistema Xk+1 = MXk
k∈N
(5.8)
in cui tutte le componenti di Xk sono non negative per ogni valore di k. Questa situazione si verifica, ad esempio, se si parte da un dato X0 a componenti non negative e tutti gli elementi di M sono positivi, ed `e tipica di molte applicazioni economiche, gestionali, demografiche e della teoria dei giochi. Le propriet` a di non negativit` a della matrice M hanno conseguenze profonde ed eleganti; il risultato centrale `e il Teorema di Frobenius-Perron, che assicura che, se mij > 0 per ogni i, j, allora tutte le traiettorie del sistema (5.8) hanno lo stesso comportamento asintotico. Per condurre un’analisi accurata, precisiamo la definizione di positivit` a di una matrice.
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron
205
Definizione 5.11. Una matrice M = [mij ] `e M ≥ O, debolmente positiva o non negativa, se mij ≥ 0 per ogni i, j M > O, positiva, se mij ≥ 0 per ogni i, j e mij > 0 per almeno una coppia di indici i, j M O, strettamente positiva, se mij > 0 per ogni i, j. 5 Analogamente, un vettore V si dice non negativo, positivo o strettamente positivo se, rispettivamente, Vj ≥ 0 per ogni j, V `e non negativo ed esiste j tale che Vj > 0, per ogni j, Vj > 0, per ogni j. Teorema 5.12. (Frobenius-Perron) Se M O, allora il suo autovalore di massimo modulo (detto autovalore dominante) risulta essere unico, reale, maggiore di zero e semplice (algebricamente e, dunque, geometricamente); inoltre, esiste un autovettore strettamente positivo VM associato a tale autovalore λM > 0. Teorema 5.13. Siano M > O ed h ∈ N tale che Mh O. Allora vale la tesi del Teorema di Frobenius-Perron per M. Teorema 5.14. Sia M ≥ O. Allora esiste un autovalore λM ≥ 0 ed un suo autovettore VM positivo tale che |λ| ≤ λM per ogni autovalore λ di M . I tre risultati precedenti sono “fini” come illustrato dagli esempi seguenti, e saranno provati in seguito. ( ) 1 1 Esempio 5.15. Se M = allora M O e per il Teorema 5.12 esi1 1 ste un autovalore dominante positivo e semplice (λM = 2) con autovettore T strettamente positivo 1 1 . ( ) 1 1 Esempio 5.16. La matrice A = non `e strettamente positiva, tuttavia 1 0 2 A O e per il Teorema 5.13 √ un autovalore dominante strettamente esiste positivo semplice λM = 12 1 + 5 , con autovettore strettamente positivo 1 √ T 5 1 . 2 1+ ( ) ( ) ( ) 10 01 00 Esempio 5.17. Siano B = , D= , E= . Nessuna delle tre 01 10 10 matrici ha una potenza strettamente positiva, tuttavia il Teorema 5.14 si applica. B ha autovalore dominante positivo λB = 1 che non `e semplice ed ha 5
Il lettore `e invitato a non confondere una matrice positiva con una matrice definita positiva: si confronti la Definizione 5.11 con quella di matrice definita positiva riportata nell’Appendice 0 1 D. 0 1 2 −1 12 Ad esempio, `e definita positiva ma non `e positiva. Viceversa, `e −1 2 21 strettamente positiva ma non `e definita positiva.
206
5 Sistemi dinamici discreti: equazioni vettoriali
molteplicit` a algebrica e geometrica uguale a 2. D ha due autovalori di massimo modulo (±1). E ha autovalore dominante λE = 0 che ha molteplicit` a algebrica pari a 2 e geometrica pari ad 1. Teorema 5.18. Se M O, oppure M > O ed esiste h tale che Mh O, allora tutte le traiettorie di Xk+1 = MXk verificano (λM )−k Xk = cM VM + σ (k) (5.9) M
dove λM `e l’autovalore dominante di M , V 0 il corrispondente autovettore dominante (vedi Teoremi 5.12 e 5.13), cM `e il coefficiente di X0 lungo la componente VM rispetto alla base di Jordan di M e σ (k) `e un infinitesimo per k → +∞. Prova. Siano λM e VM rispettivamente l’autovalore dominante semplice e positivo ed il corrispondente autovettore positivo di M, la cui esistenza `e assicurata dai Teoremi 5.12 e 5.13. Se X0 = cM VM + j cj Vj dove Vj sono autovettori generalizzati che con VM formano una base di Rn , allora Xk = cM λM k VM + Wk dove il vettore Wk `e una somma finita (a coefficienti indipendenti da k) di termini a crescita al pi` u kn λkj , con |λj | < |λM |. Pertanto possiamo scrivere λM −k Xk = cM VM + σ (k).
Il teorema precedente riduce l’analisi del comportamento di lungo periodo delle traiettorie al calcolo dell’autovalore ed autovettore dominanti (e viceversa: dalla eventuale conoscenza delle serie storiche di una grandezza generata da un sistema lineare strettamente positivo, si possono avere stime dell’autovalore dominante e dell’autovettore dominante). Questi fatti sono precisati nel Teorema seguente. Teorema 5.19. Se X0 > 0 e M O (o X0 > 0, M > O ed ∃h : Mh O), allora la soluzione X del s.d.d. vettoriale Xk+1 = MXk , k ∈ N, con dato iniziale X0 , tende ad allinearsi con il corrispondente autovettore dominante VM O di M : Xk VM lim = . (5.10) k Xk VM T
Inoltre l’autovettore dominante VM 0 di MT `e ortogonale ad ogni autovettore di M diverso da VM e ad ogni autovettore generalizzato di M diverso da VM ; infine, se cM `e il coefficiente VM nello sviluppo di X0 rispetto alla base di Jordan di M, allora vale cM > 0 . (5.11)
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron
207
Prova. Basta provare che T
VM ⊥ V
∀ V autovettore generalizzato di M diverso da VM .
(5.12)
Infatti (5.12) implica che lo spazio generato da tutti gli autovettori generalizzati di M diversi da VM interseca l’“ottante” {X ∈ Rn : X ≥ 0} solo in 0, dunque X0 > 0 implica (5.11). Infine (5.10) ` e una immediata conseguenza di (5.11) e del Teorema 5.18. Rimane dunque da provare la (5.12). Se λj `e un autovalore diverso da λM e Vj `e il corrispondente autovettore, si ottiene: T
T
T
λj Vj , VM = M Vj , VM = Vj , MT VM = T
T
= λM Vj , VM = λM Vj , VM , T
ne segue Vj , VM = 0 poich´e λj = λM . Se gli autovettori di M non formano una base, si consideri la base di Jordan costituita da autovettori generalizzati di M ; in tal caso, per ogni fissato blocco massimale di Jordan B di dimensione r corrispondente all’autovalore λj (con riferimento al Teorema D.6 ed alla Figura D.2 dell’Appendice D, si noti che ad ogni autovalore possono corrispondere pi` u blocchi di Jordan) ordiniamo ed etichettiamo la sottobase relativa a tale blocco B come segue: Vj−r+1 , Vj−r+2 , . . . , Vj−1 , Vj
con Vj autovettore,
dunque MVj = λj V ,
MVj−s = λj Vj−s + Vj−s+1 ,
s = 1, . . . , r − 1 .
(5.13) T
Se ne deduce: Vj−r+1 , Vj−r+2 , . . . , Vj−1 , sono tutti ortogonali a VM . Infatti T a procedere per induzione sappiamo che Vj `e ortogonale a VM , dunque baster` T j−s+1 M j−s MT ⊥V implica V ⊥V . Questa implicazione si prova come provando che V segue: da (5.13) segue λj Vj−s = MVj−s − Vj−s+1 e T
T
T
λj Vj−s , VM = M Vj−s − Vj−s+1 , VM = M Vj−s , VM = T T T = Vj−s , MT VM = λM Vj−s , VM = λM Vj−s , VM T
che implica Vj−s , VM = 0 poich´e λj = λM .
Prova. del Teorema di Frobenius-Perron. Nel seguito le disuguaglianze fra vettori vanno intese nel senso di confronto con 0 della differenza, cio`e: V ≥W ⇔ V−W ≥0 ;
V > W ⇔ V− W > 0;
V W ⇔ V−W 0 .
Sia λM = max {λ ∈ R : ∃X > 0 tale che MX ≥ λX} . Si noti che l’insieme di cui si calcola il massimo ` e non vuoto (contiene λ = 0), chiuso (si possono scegliere sempre gli X in modo tale che X = 1) e limitato:
Mji Xi = Mij Xi max Xi ≤ Mij max Xi ⇒ λ ≤ Mij . (MX)j = i
i,j
i
i,j
i
i,j
208
5 Sistemi dinamici discreti: equazioni vettoriali
Dunque, tale λM esiste e verifica 0 ≤ λM < +∞. Fino a questo punto `e stata usata solo l’ipotesi M ≥ O. Se, inoltre, M O allora λM ≥ minj Mjj > 0. Dunque 0 < λM < +∞. Sia VM > 0 tale che MVM ≥ λM VM . (I) Proviamo che λM `e un autovalore e VM `e il corrispondente autovettore che verifica VM 0. Poich´e M O segue MX 0 per ogni X > 0, dunque oppure MVM = λM VM . M MVM −λM VM 0 Se MVM > λM VM , allora Y = MVM > 0 e dunque MY λM Y. Allora λM potrebbe essere leggermente aumentato contraddicendo la sua definizione come massimo. Dunque vale MVM = λM VM . Inoltre, poich´e VM > 0 implica MVM 0, allora MVM = λM VM implica VM 0. (II) Proviamo che |λ| < λM per ogni autovalore λ di M. Sia λ = λM un autovalore di M ed Y = 0 l’autovettore corrispondente a λ. Defi di componenti Yj = |Yj | , con j = 1, · · · , n, e consideriamo il niamo il vettore Y vettore MY di componenti: MY = mj1 |Y1 | + mj2 |Y2 | + · · · + mjn |Yn | ≥ |mj1 Y1 + mj2 Y2 + · · · + mjn Yn | j
cio`e
≥ (MY) MY = |λ| Y ≥ (λY) MY
e dalla definizione di λM segue |λ| ≤ λM . Per provare la disuguaglianza stretta, consideriamo la matrice Mδ = M − δIn dove δ > 0 `e scelto in modo tale che Mδ O 1 (ad esempio, ponendo δ = minij Mij ). 2 Dall’identit` a (μ − δ) In − Mδ = μIn − M, per ogni μ ∈ C, segue che (λM − δ) e a di Mδ , vale (λ − δ) sono autovalori di Mδ . Inoltre, per la stretta positivit` |λ − δ| ≤ λM − δ
(5.14)
poich´e λM − δ `e il massimo autovalore di Mδ . Se |λ| = λM e λ = λM si ha una contraddizione con (5.14). Si `e usato il fatto (illustrato in Figura 5.5) che la sottrazione di una quantit` a positiva da un numero complesso riduce maggiormente (a parit` a di modulo) il modulo del numero reale positivo. a geometrica uguale ad 1. (III) Proviamo che λM ha molteplicit` Supponiamo per assurdo che esista un altro autovettore Y linearmente indipendente da VM . Dalla disuguaglianza VM 0 segue l’esistenza di una costante reale α tale che, posto W = αVM +Y si abbia W > 0 ma non valga W 0. Tuttavia, da M O segue λM W = MW 0 che `e una contraddizione.
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron l
l-d
-d
209
l M- d
0
Figura 5.5 |λ| = λM = λ e δ > 0
⇒
lM
|λ − δ| > λM − δ
(IV) Proviamo che λM ha molteplicit` a algebrica pari ad 1. Supponiamo per assurdo che la molteplicit` a algebrica di λM sia maggiore di 1. Abbiamo allora almeno due autovettori generalizzati VM e U associati a λM tali che (M − λM In ) U = VM (M − λM In ) VM = 0 Sia W l’unico autovettore strettamente positivo di MT corrispondente a λM , allora WT (M − λM In ) = 0 6 5 0 = W T (M − λM In ) U = W, VM
(M − λM In ) W = 0
che `e una contraddizione perch´e VM 0 e W 0.
Si osservi che si `e implicitamente provato anche l’enunciato del Teorema 5.14 con una tesi lievemente diversa: autovettore VM debolmente positivo; ma un autovettore per definizione non pu` o essere nullo, il che prova completamente la tesi del Teorema 5.14. Per provare il Teorema 5.13 basta osservare che A = Mh verifica le ipotesi √ del Teorema 5.12 e tra gli autovalori di M ed A intercorre la relazione λM = h λA . Osservazione 5.20. In alcuni casi pu` o essere utile una stima dell’autovalore dominante, senza dover ricorrere al calcolo effettivo. Vale il seguente risultato: Se M ≥ O e λM ≥ 0 `e il suo autovalore dominante, allora, se Cj ed Rj sono rispettivamente le somme degli elementi della j-esima colonna e j-esima riga di M, valgono min Cj ≤ λM ≤ max Cj
(5.15)
min Rj ≤ λM ≤ max Rj
(5.16)
j
j
j
j
210
5 Sistemi dinamici discreti: equazioni vettoriali
M Infatti, posto M = [mij n ], se V M≥ 0 `e unMautovettore associato a λM tale che M V = 1, allora j mij Vj = λM Vi e sommando anche in i si ottiene j=1 jM T C j j Vj = λM da cui (5.15). Ragionando su M si ottiene la (5.16).
Esempio 5.21. Consideriamo la seguente matrice strettamente positiva: ⎡ ⎤ 123 M = ⎣2 2 2⎦ 411 Da (5.15) si ottiene 5 ≤ λM ≤ 7, ma da (5.16) si ottiene 6 ≤ λM ≤ 6 cio`e λM = 6 senza scrivere il polinomio caratteristico.
5.5 Applicazioni alla demografia Riprendiamo l’analisi del modello demografico di Leslie (vedi l’Esempio 1.16). Se indichiamo con Y j il numero di individui di et` a j (j = 1, 2, . . . , n), ϕj il tasso di fertilit` a (nati per individuo) degli individui di et` a j e σj il tasso di sopravvivenza di individui di et` a j fino all’et` a j + 1, ad ogni tempo discreto k (con passo uniforme, pari all’ampiezza delle classi di et`a) si ha un T vettore Yk = Yk1 Yk2 . . . Ykn che descrive la struttura della popolazione. L’evoluzione di Y `e descritta dall’equazione Yk+1 = LYk ove
⎡
· · · ϕn−1 ··· 0 ··· 0 . .. . .. 0 0 · · · σn−1
ϕ1 ⎢ σ1 ⎢ ⎢ L =⎢ 0 ⎢ .. ⎣ .
ϕ2 0 σ2 .. .
⎤ ϕn 0 ⎥ ⎥ 0 ⎥ ⎥ .. ⎥ . ⎦ 0
Al tempo k + 1 il numero degli individui della i-esima classe `e dato da i = nj=1 Lij Ykj mentre la popolazione totale al generico tempo k `e pari Yk+1 n a i=1 Yki . Se σi > 0, i = 1, . . . , n − 1 e ϕj > 0, j = 1, . . . , n, allora la matrice L pur non essendo strettamente positiva ha una potenza strettamente positiva (Ln O). (vedi Figura 5.6). Allora, per il Teorema 5.13, L ha un autovalore dominante λL > 0 semplice e tale che |λ| < λL per ogni altro autovalore λ di L. Inoltre, alle traiettorie del s.d.d. Yk+1 = LYk si applica il Teorema 5.18: in particolare, la distribuzione asintotica della popolazione `e descritta dall’autovettore dominante (che `e strettamente positivo per il Teorema di Frobenius-Perron), cio`e la ripartizione tra le varie classi d’et` a `e proporzionale alle componenti dell’autovettore dominante positivo VL .
5.5 Applicazioni alla demografia
⎡
⎢ ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0 ⎡
⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0 ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0
0 0
0 0
0 0
0 0
0 0
0 0
⎤⎡ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ 0 ⎢ 0⎥ ⎥⎢ 0 ⎢ 0⎥ ⎥⎢ 0 ⎥ 0 ⎥⎢ ⎢0 0 ⎦⎣ 0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ 0 ⎦ 0 ⎣0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎦ 0 ⎣ 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0
0 0 0
0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0
0
0
0
0
0
0
⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ 0 ⎢ 0⎥ ⎥⎢ 0 ⎥ 0 ⎥⎢ ⎢0 0 ⎦⎣ 0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎦ 0 ⎣0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎦ ⎣ 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0
0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
211
⎤ ⎥ ⎥ ⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎦ 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ 0⎥ ⎥ 0⎦ 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
Figura 5.6 L, L2 , . . . , L9 con L matrice di Leslie di ordine 9 (i quadratini neri indicano gli elementi strettamente positivi)
L’autovettore dominante rappresenta la cosiddetta distribuzione stabile d’et` a cio`e descrive in quali proporzioni la popolazione tende a ripartirsi nelle varie classi (in assenza di perturbazioni). In dipendenza dai valori di sopravvivenza e fertilit` a l’autovalore dominante descrive la prospettiva di crescita od estinzione della popolazione: λL > 1 popolazione in crescita esponenziale popolazione che tende ad un equilibrio (strettamente positivo) λL = 1 0 < λL < 1 popolazione che si avvia all’estinzione in modo esponenziale. Se 0 < λL < 1, allora 0 `e un equilibrio stabile ed attrattivo. Se λL = 1, allora ogni multiplo positivo dell’autovettore dominante VL (associato a λL ) `e un equilibrio stabile ma non attrattivo (semiretta di equilibri).
212
5 Sistemi dinamici discreti: equazioni vettoriali
Se λL > 1, allora 0 `e un equilibrio instabile e repulsivo. Si osservi nella Figura 5.6 come, al crescere della potenza di L aumentano le righe 0 e la diagonale 0 scende.L’autovalore e l’autovettore dominante possono essere calcolati con metodi numerici a partire dalla definizione algebrica oppure simulando il sistema per un periodo sufficientemente lungo: se X0 ha componente cL non nulla lungo VL nella base di Jordan di L, allora (grazie al Teorema 5.18) si ha: Xk+1 VL = lim λL−k c−1 λL = lim L Xk . k k Xk Osservazione 5.22. Se L `e una matrice di Leslie, allora il determinante vale 1+n det L = (−1) ϕn σ1 σ2 · · · σn−1 . Esempio 5.23. Un modello di ripartizione degli studenti. Consideriamo gli studenti che in un ateneo frequentano un corso di laurea di cinque anni. Siano: S j il numero di studenti iscritti all’anno j di corso, j = 1, 2, . . ., 5 Sk6 il numero dei laureati nell’anno k aj il coefficiente corrispondente alla frazione di abbandoni all’anno j pj il coefficiente di passaggio dall’anno j all’anno j + 1, j = 1, . . . , 4 p5 la frazione di laureati Mk gli immatricolati o trasferiti da altre sedi nell’anno k (`e un vettore a 6 componenti, l’ultima nulla). Ad ogni tempo discreto k si ha un vettore a sei componenti Sk che descrive la struttura della popolazione studentesca. Il modello di evoluzione `e descritto da Sk+1 = ASk + Mk con
⎡
0 0 0 0 1 − p 1 − a1 ⎢ p 1 − p − a 0 0 0 1 2 2 ⎢ ⎢ 1 − p 3 − a3 0 0 0 p2 ⎢ A=⎢ ⎢ 1 − p − a 0 0 0 p 3 4 4 ⎢ ⎢ 1 − p 5 − a5 0 0 0 p4 ⎣ 0
0
0
0
p5
⎤ 0 0⎥ ⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ ⎥ 0⎦ 0
Si noti che A ≥ O ma non vi sono potenze Ah O dato che Ah ha l’ultima colonna di 0 per ogni h. Inoltre, A `e di tipo matrice diagonale pi` u matrice nilpotente, pur non essendo nella forma di Jordan. Il calcolo degli autovalori `e immediato: 1 − p1 − a1 , 1 − p2 − a2 , . . . , 0. Per un’analisi del modello si possono utilizzare i risultati del paragrafo 5.6. Esercizio 5.3. Dimostrare l’affermazione contenuta nell’Osservazione 5.22.
5.5 Applicazioni alla demografia
213
Figura 5.7 Popolazione residente in Italia, per sesso e classi di et` a (fonte ISTAT)
Figura 5.8 Due popolazioni (1998), ripartite per sesso e in classi di et` a di 10 anni
214
5 Sistemi dinamici discreti: equazioni vettoriali
5.6 Equazioni vettoriali lineari affini Consideriamo il sistema dinamico discreto lineare affine Xk+1 = AXk + B (5.17) dove B ∈ Rn ed A, matrice di ordine n, sono assegnati. Siamo interessati ad esplicitare Xk , cio`e a darne una espressione non ricorsiva e, successivamente, a studiare l’esistenza di eventuali equilibri e discuterne la stabilit` a. Seguendo lo stesso ragionamento formale del caso scalare affine (paragrafo 2.1, Teorema 2.5) sar`a utile effettuare un cambio di incognita per ricondursi al caso lineare: cerchiamo di adattare i passaggi della prova del Teorema 2.5, con le precauzioni dovute al fatto che A `e una matrice. Teorema 5.24. Se tutti gli autovalori di A sono diversi da 0 ed 1 , allora In − A `e invertibile e vale Xk = Ak (X0 − A) + A
(5.18)
−1
dove il vettore A = (In − A) B `e l’unico equilibrio del s.d.d. (5.17). Si osservi la forte analogia di (5.18) con la formula (2.4) relativa al caso lineare affine scalare. Prova. Nel seguito scriveremo brevemente I anzich´e In . La matrice I − A `e invertibile perch´e 1 non `e autovalore di A (come si deduce dalla forma di Jordan). Gli eventuali equilibri A del s.d.d. (5.17) risolvono A = AA + B la cui soluzione (unica) `e A = (I − A)−1 B. Sia Yk = Xk − A, ∀k. Sostituendo nell’equazione (5.17), si ricava:6 Yk+1 = Xk+1 − A = AXk + B − A = AXk + I− (I − A)−1 B = = AXk + (I − A)−1 (I − A) − (I − A)−1 B = = AXk − (I − A)−1 AB = AXk − A (I − A)−1 B = = A Xk − (I − A)−1 B = AYk . 6 Si ricordi che A e (I − A)−1 commutano, avendo supposto che tutti gli autovalori siano diversi da 0: −1 −1 −1 −1 = AA−1 A−1 − I = A −I = A (I − A)−1 = A A−1 − I A −1 −1 −1 −1 −1 −1 = (I − A) = (I − A) A. A = A (I − A)
5.6 Equazioni vettoriali lineari affini
215
Dunque Yk+1 = AYk da cui Yk = Ak Y0 e da Y0 = X0 − A, Xk = Yk + A, segue Xk = Ak (X0 − A) + A.
Nel caso generale (cio`e se fra gli autovalori di A vi sono anche 0 o 1) si decompone Rn come Rn = V0 ⊕ V1 ⊕ V2 dove V0 `e l’autospazio generalizzato associato all’autovalore 0; V1 `e l’autospazio generalizzato all’autovalore 1; V2 `e l’unione degli autospazi generalizzati di tutti gli altri autovalori. La matrice A nelle coordinate della forma ⎡ A0 O A = ⎣ O A1 O O
di Jordan si esprime come ⎤ O O⎦ A2
dove A0 , A1 , A2 sono matrici quadrate con A0 nilpotente. Tutti i vettori T W di Rn si decompongono come W = W0 W1 W2 . Il sistema (5.17) si disaccoppia in tre sistemi. T Ogni equilibrio A = A0 A1 A2 risolve A = AA + B cio`e (I − A1 ) A1 = B1
(I − A0 ) A0 = B0
(I − A2 ) A2 = B2 .
Poich´e (I − A0 ) e (I − A2 ) sono invertibili, A0 e A2 sono univocamente determinati −1
A0 = (I − A0 )
B0
−1
A2 = (I − A2 )
B2 .
Per` o (I − A1 ) non `e invertibile (`e nilpotente), pertanto possono esservi o meno soluzioni A1 e se esistono non sono uniche (precisamente, ve ne sono se e solo T se B1 ⊥ ker (I − A1 ) ). Le conclusioni sono riassunte nell’enunciato seguente. Teorema 5.25. Se fra gli autovalori di A vi sono anche 0 o 1 (o entrambi), T se e solo se la allora il sistema (5.17) ammette equilibri A = A0 A1 A2 T 1 componente B di B in V1 `e ortogonale al nucleo di (I − A1 ) . T In caso affermativo, le soluzioni Xk = X0 X1 X2 decomposte secondo V0 , V1 , V2 si esplicitano: k X0k = (A0 ) X00 − A0 + A0 k X2k = (A2 ) X20 − A2 + A2 W T X1k = XU k Xk dove U `e lo spazio associato al blocco di Jordan banale e V2 `e l’unione degli spazi associati ai blocchi di Jordan non banali relativi all’autovalore 0: U U W XU o esprimere k = kB per ogni k, con B componente di B in U, e Xk si pu` W W in dipendenza da B ed X0 in ciascun sottoblocco di Jordan non banale di
216
5 Sistemi dinamici discreti: equazioni vettoriali
dimensione l − j corrispondente all’autovalore 0. Dunque: ⎧ (I) 1 non `e autovalore, cio`e V1 = U ⊕ W = {0} ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ oppure (II) 1 `e autovalore e B1j = 0 per ogni j, salvo ∃ equilibri A ⇔ ⎪ eventualmente le ultime componenti in ⎪ ⎪ ⎪ ⎪ ciascuno dei blocchi di Jordan non ⎪ ⎪ ⎩ banali dell’autovalore 1 Nel primo caso esiste un unico equilibrio −1
A = (I − A)
B=
& −1 0 −1 'T B I − A2 B . I − A0
Nel secondo caso esistono infiniti equilibri: T A = A0 A1 A2 T T A1 = AU AW = 0 AW T AW = costituito da vettori 0 0 . . . 0 Bl in ciascun blocco ldimensionale. • Se |λ| < 1 per ogni autovalore, allora siamo nel caso I e l’equilibrio A `e stabile ed attrattivo • Se esiste un autovalore λ tale che |λ| > 1, allora l’eventuale equilibrio (casi I o II) `e instabile • Se λ = 1 `e autovalore e vi `e equilibrio, allora siamo nel caso II ed A `e stabile se le molteplicit` a algebriche e geometriche dell’autovalore 1 coincidono (comunque A non `e attrattivo). Si suggerisce di confrontare la discussione svolta sugli equilibri e la loro stabilit` a con quella relativa alle equazioni alle differenze scalari ad m passi. Esempio 5.26. Sia M una matrice dan corrispondenti alla base e1 , e2 , nulle) ⎡ 0 0 ⎢ 1 0 ⎢ ⎢ 1 ⎢ ⎢ 1 ⎢ M=⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ con
di ordine 9 data, nelle coordinate di Jor. . . , e9 (le componenti non indicate sono ⎤ 0 1
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ 1 0 ⎥ ⎥ 1 1 ⎥ λ1 0 0 ⎥ ⎥ 0 λ2 0 ⎦ 0 0 λ3
5.6 Equazioni vettoriali lineari affini
V0 = e1 ⊕ e2
V1 = e3 ⊕ e4 ⊕ e5 ⊕ e6
217
V2 = e7 ⊕ e8 ⊕ e9 .
I modi naturali sono individuati da 0, 1, k, k 2 , k 3 , λk1 , λk2 , λk3 . Osservazione 5.27. Il modello di ripartizione degli studenti considerato nell’Esempio 5.23 in una situazione stazionaria (Mk = M, ∀k, cio`e supposto costante il numero di immatricolati e di trasferimenti) rientra nella forma (5.10) studiata in questo paragrafo. Concludiamo con alcune considerazioni generali sui s.d.d. lineari positivi. Un sistema lineare affine Xk+1 = AXk + B pu` o non avere equilibri A che verificano A ≥ 0 anche se A O e B 0 (ad esempio, se n = 1, A = 2 e ` peraltro rilevante chiedersi quando, date A e B B = 1 allora A = −1). E non negative, anche gli equilibri risultano non negativi. Questa questione `e strettamente connessa con la stabilit`a. Enunciamo un risultato che illustra solo alcuni aspetti del problema. Teorema 5.28. Sia dato il s.d.d. vettoriale Xk+1 = AXk + B, dove A O, B 0. Allora sono equivalenti le condizioni seguenti: (i) |λ| < 1 per ogni autovalore λ di A, (ii) esiste A ≥ 0 equilibrio del sistema. In particolare, se vale (i) oppure (ii) allora tale A `e stabile ed attrattivo e A 0. Prova. (i) ⇒ (ii): Se |λ| < 1 per ogni autovalore λ, allora la matrice I−A `e invertibile, e per il Teorema 5.24 vi `e un unico equilibrio A stabile ed attrattivo7 . Inoltre, se si inizializza il sistema dinamico con un dato X0 ≥ 0, allora risulta Xk 0 per ogni k ≥ 1 e ne segue A ≥ 0 . Inoltre da AA ≥ 0, B O segue A = AA + B 0. (ii) ⇒ (i): Se esiste A ≥ 0 tale che (I − A) A = B, allora A = AA + B 0. Osservato che AT O e che A ed AT hanno gli stessi autovalori, denotiamo con λA > 0 l’autovalore dominante di A (e dunque anche di AT ) e con U un autovettore dominante strettamente positivo di AT (vedi Teorema 5.12): 7
Il Teorema 5.24 `e valido anche sostituendo l’ipotesi “autovalori diversi da 0 e 1” con “|λ| < 1 per ogni autovalore λ”. Infatti, basta modificare l’argomento della Nota 6 come segue: +∞ k A , dunque |λ| < 1 implica (I − A)−1 = k=0
A (I − A)
−1
=A
+∞
k=0
k
A =
+∞
k=0
A
k+1
=
+∞
k=0
A
k
A = (I − A)−1 A.
218
5 Sistemi dinamici discreti: equazioni vettoriali U0
Allora
AT U = λA U
B, U > 0.
5 6 (1 − λA ) A, U = A, I − AT U = (I − A) A, U = B, U > 0
e dalla disuguaglianza A, U > 0 segue λA < 1. Dunque, 0 < λA < 1 e 0 ≤ |λ| < λA < 1 per ogni λ autovalore.
Esercizio 5.4. Data la matrice quadrata A di ordine n i cui elementi sono tutti uguali a 1/ (2n) e un vettore B ∈ Rn , B 0, studiare il s.d.d. Xk+1 = AXk + B.
5.7 Sistemi dinamici discreti vettoriali non lineari Accenniamo al caso di sistemi di pi` u equazioni non lineari ad un passo. Definizione 5.29. Sia F : I n → I n una funzione continua. Allora la coppia {I n , F } `e detta sistema dinamico discreto vettoriale. Ad ogni s.d.d. {I n , F } vettoriale `e associato un sistema di infinite equazioni Zk+1 = F (Zk ), k ∈ N. Per ogni scelta di n dati iniziali Z0 , Z1 , . . . , Zn−1 vi `e una sola successione {Zk } che risolve tale sistema di equazioni: tale successione `e detta traiettoria del s.d.d. associata alla n-upla di dati iniziali. Tutte le definizioni formulate nel caso scalare circa i punti di equilibrio e la loro stabilit` a possono essere riformulate con ovvie modifiche nel caso vettoriale. T T Esempio 5.30. Sia n = 2, F (x, y) = f (x, y) g (x, y) , Zk = Xk Yk . Allora, ∀k ∈ N
Xk+1 = f (Xk , Yk ) Yk+1 = g (Xk , Yk ) Come nel caso scalare, non vi sono metodi generali per esplicitare le soluzioni di sistemi non lineari. Ci limiteremo a discutere il comportamento asintotico e la stabilit` a degli equilibri. ` utile introdurre la seguente definizione. E Definizione 5.31. Sia A una matrice quadrata di ordine n. Allora il numero A = max {AV : V ∈ Rn , V = 1} `e detta norma di A.
5.7 Sistemi dinamici discreti vettoriali non lineari
219
T Teorema 5.32. Siano n = 2, A = α1 α2 un equilibrio: F (A) = A, cio`e in componenti α1 = f (α1 , α2) α2 = g (α1 , α2 ) dove F : I 2 → I 2 `e una funzione munita di derivate parziali continue e ⎤ ∂f (α1 , α2 ) ⎥ ⎢ ∂x ∂y ⎥ ⎢ J (A) = ⎢ ⎥ ⎦ ⎣ ∂g ∂g (α1 , α2) (α1 , α2 ) ∂x ∂y ⎡ ∂f
(α1 , α2)
Se tutti gli autovalori di J verificano |λ| < 1, allora α `e un equilibrio stabile T T e localmente attrattivo (cio`e se X0 Y0 `e “vicino” ad α1 α2 , allora la traiettoria associata a tale dato iniziale converge ad A). Se esiste un autovalore λ tale che |λ| > 1, allora α `e instabile. Esempio 5.33. Modello di Lotka-Volterra (predatore-preda). Consideriamo due specie che interagiscono in un ambiente: le prede, descritte dalla successione X (X0 descrive quantitativamente la struttura della popolazione al tempo 0, X1 al tempo 1, ...). In assenza di predatori Xk evolverebbe secondo la legge di tipo lineare Xk+1 = aXk . Se consideriamo la presenza di una specie predatrice Y che si alimenta principalmente della specie X `e opportuno modificare la legge che descrive la dinamica come segue Xk+1 = aXk − bXk Yk . L’evoluzione dei predatori (per cui non si trascura la competizione sociale) `e descritta da Yk+1 = cYk − dYk2 + eXk Yk che tiene conto degli “incontri” con le prede. Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’intersezione delle rette di equazione y = a/b e y = (e/d) x + (c − 1) /d in cui Xk ed Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in senso antiorario attorno all’equilibrio α la cui eventuale stabilit` a dipende dal valore numerico scelto per i parametri. Al variare dei parametri a, b, c, d, e, tutti positivi, con a > 1 e c > 1, il sistema presenta diversi comportamenti. Esaminiamo un esempio numerico: se a=2 allora
b=1
c = 1, 5
d=2
Xk+1 = 2Xk − Xk Yk Yk+1 = 1, 5Yk − 2Yk2 + Xk Yk
e=1
220
5 Sistemi dinamici discreti: equazioni vettoriali
cio`e
⎡
⎤ 2x − xy ⎦. F (x, y) = ⎣ 3 y − 2y2 + xy 2
Le equazioni soddisfatte dagli equilibri sono
α1 = α1 α2 0, 5α2 + α1 α2 = 2α22 Gli equilibri sono 3: (0, 0) , (0, 1/4), e (3/2, 1) . La parte di piano significativa `e il quadrante x > 0, y > 0 cui appartiene un solo equilibrio: (3/2 , 1). Poich´e J
3 ,1 2
(
1 −3/2 = 1 −1
√
) λ1,2 (J) = ±
2 i 2
per il Teorema 5.32 l’equilibrio (3/2, 1) `e stabile e localmente attrattivo. Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’intersezione delle rette di equazione
ex c-1 y = __ + ____ d d Xk+1 - Xk < 0
Xk+1 - Xk < 0
Yk+1 - Yk < 0
Yk+1 - Yk > 0
Xk+1 - Xk > 0
Xk+1 - Xk > 0
Yk+1 - Yk < 0
Yk+1 - Yk > 0
a y = __ b
c-1 ____ d
Figura 5.9 Piano delle fasi del modello di Lotka-Volterra
5.8 Schemi numerici per la risoluzione di problemi lineari
y=2
y=
221
1 1 x+ 2 4
in cui Xk ed Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in senso antiorario attorno all’equilibrio α la cui eventuale stabilit` a dipende dal valore numerico scelto per i parametri. Per discutere la stabilit` a dell’equilibrio (0, 0) osserviamo che ( J (0, 0) =
) ( ) a0 2 0 = 0c 0 3/2
dunque (0, 0) `e stabile se e solo se |a| < 1 e |c| < 1 . Si verifichi che (0, 1/4) `e instabile.
5.8 Schemi numerici per la risoluzione di problemi lineari Spesso si deve affrontare il problema di calcolare le soluzioni di un sistema di equazioni algebriche lineari (vedi Appendice D): ad esempio, gli schemi numerici per la soluzione di equazioni differenziali lineari consistono nella risoluzione di tali sistemi con grande dimensione (numero di equazioni). Nell’Esempio 1.21 abbiamo incontrato uno schema alle differenze finite che consente di approssimare la soluzione di una equazione alle derivate parziali mediante la soluzione di un sistema di equazioni algebriche lineari. In teoria il Teorema di Rouch´e-Capelli e la regola di Cramer danno una risposta completa al problema di risolvere un tale sistema algebrico. Tuttavia tali metodi sono inapplicabili per la determinazione effettiva delle soluzioni se la dimensione del sistema non `e molto piccola oppure se la matrice associata non `e diagonale. Inoltre, negli schemi alle differenze finite che approssimano equazioni differenziali tale dimensione `e molto grande e la matrice associata non `e banale. ` dunque importante individuare schemi numerici efficienti per la soluzione E esatta o approssimata di sistemi lineari algebrici di dimensione elevata, perlomeno nei casi di matrici aventi particolare struttura (come avviene nel caso della discretizzazione di equazioni differenziali). Iniziamo considerando un esempio importante di matrice sparsa cio`e con molti termini nulli. Esempio 5.34. Si verifica8 che la matrice quadrata tridiagonale N × N (con elementi nulli fuori dalle tre diagonali principali) 8
Si possono usare leidentit` a: 2 α ; sin α2 = 1−cos 2
sin (α + β) = sin α cos β + sin β cos α .
222
5 Sistemi dinamici discreti: equazioni vettoriali
⎡
⎤ 2 −1 ⎢ −1 2 −1 ⎥ ⎢ ⎥ ⎢ ⎥ . .. ⎢ ⎥ −1 2 ⎢ ⎥ ⎢ ⎥ . . . .. .. .. T=⎢ (5.19) ⎥ ⎢ ⎥ ⎢ ⎥ .. .. ⎢ ⎥ . . −1 ⎢ ⎥ ⎣ −1 2 −1 ⎦ −1 2 2 kπ per 1 ≤ k ≤ N , associati agli ha autovalori λk (T) = 4 sin 2 (N + 1) autovettori Uk (T) di componenti (Uk )j = sin (jkπ/ (N + 1)). Ne segue che, per ogni N , la matrice T `e definita positiva e i suoi autovalori λ (T) verificano 0 < λk (T) ≤ 4 per ogni k; inoltre, λmin (T) = λ1 (T) ∼ k 2 π . N +1 Esempio 5.35. (Problema di autovalori per l’operatore −d2 /dx2 in un intervallo) La ricerca di costanti λ cui corrispondono funzioni u = u (x) non identicamente nulle che risolvono
−u (x) = λ u (x) 0 < x < l (5.20) u (0) = u (l) = 0 `e detto problema di autovalori. 2 Il problema (5.20) ha infinite soluzioni date dalle coppie λk = kπ l uk (x) = Ck sin kπx l con k = 1, 2, . . . e Ck costanti arbitrarie. Approssimando la derivata seconda con le differenze finite centrate: uk−1 − 2uk + uk−1 u (xk ) ∼ dove h2 h = l/ (N + 1) ; xk = kh ; uk ∼ u (xk ) ;
e
1≤k≤N
si ottiene il problema seguente (approssimazione numerica del problema (5.20)): Determinare le costanti λ per cui esiste un vettore non nullo T U = U1 U2 · · · UN soluzione del sistema lineare N × N : 1 TU = λU . h2 Quest’ultimo consiste nella determinazione degli autovalori della matrice h−2 T dove T `e la matrice tridiagonale (5.19): pertanto gli autovalori di h−2 T sono 2 kπ 4 1≤k≤N . λh,k = 2 sin h N +1 Si noti che, fissati l ed k, se h → 0, allora N → +∞ e λh,k λk , ∀k.
5.8 Schemi numerici per la risoluzione di problemi lineari
223
Esempio 5.36. (Metodo di Eulero esplicito per l’equazione del calore) Con riferimento all’Esempio 1.21 ed alle sue notazioni, una soluzione approssimata del problema ⎧ ∂2v ∂v ⎪ ⎪ x ∈ (0, a) , 0 < t < T ⎨ ∂t = ∂x2 ⎪ x ∈ [0, a] ⎪ ⎩ v (x, 0) = f (x) v (0, t) = v (a, t) = 0 t > 0
(5.21)
pu` o essere ottenuta mediante il metodo di Eulero esplicito, cio`e dallo schema numerico
α = h/s2 Wj,k+1 = αWj−1,k + (1 − 2α) Wj,k + αWj+1,k (5.22) W0,k+1 = WN,k+1 = 0
Figura 5.10 Discretizzazione alle differenze finite con Eulero esplicito (5.17)
In termini di sistemi dinamici discreti lo schema numerico (5.22) genera una traiettoria del s.d.d. vettoriale Wk+1 = BWk a partire da W0 , campionamento del dato iniziale f, con B = IN − αT, dove T `e la matrice tridiagonale (5.19), α = h/s2 , h `e il passo di discretizzazione temporale, s quello spaziale. ⎡
1 − 2α α ⎢ α 1 − 2α α ⎢ ⎢ ⎢ α 1 − 2α ⎢ ⎢ .. B=⎢ . ⎢ ⎢ ⎢ ⎢ ⎣
⎤ ..
. .. .. . . .. .. . . α α 1 − 2α α α 1 − 2α
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
224
5 Sistemi dinamici discreti: equazioni vettoriali
Effettuando esperimenti numerici con un computer `e facile verificare che, se vale la condizione di stabilit` a numerica 0 < α ≤ 1/2, allora il metodo di Eulero esplicito ha un buon comportamento, cio`e i valori numerici ottenuti approssimano la soluzione esatta. Viceversa, se vale la condizione di instabilit` a numerica α > 1/2, allora i valori numerici ottenuti oscillano senza controllo anzich´e approssimare la soluzione cercata. L’obiettivo `e quello di evitare le eventuali amplificazioni degli errori introdotti nella valutazione (con precisione aritmetica finita) del dato iniziale. La condizione α ≤ 1/2 (cio`e h ≤ s2 /2) va dunque imposta per ottenere risultati significativi; tuttavia essa risulta assai costosa nella pratica di calcolo: raddoppiare nello spazio i punti della griglia di discretizzazione comporta una quadruplicazione di tali punti nel tempo, cio`e il numero complessivo di punti ed il relativo tempo di calcolo aumentano di otto volte. Per tale motivo si preferisce utilizzare il metodo di Eulero implicito che risulta stabile senza alcuna condizione sul valore numerico di α = h/s2 , anche se tale metodo richiede la soluzione di un sistema lineare algebrico con matrice non diagonale, mentre nel caso di Eulero esplicito (5.22) il sistema algebrico `e gi`a risolto. Per comprendere il senso della condizione di stabilit` a numerica per il metodo di Eulero esplicito, facendo riferimento all’Esempio 5.36, osserviamo che la matrice T `e diagonalizzabile. Dunque anche B = IN − αT `e diagonalizzabile ed i suoi autovettori ed autovalori sono rispettivamente Uk (B) = Uk (T) λk (B) = 1 − αλk (T) = 1 − 4α sin
1≤k≤N 2 kπ 2 (N + 1)
1≤k≤N .
Allora gli autovalori di B sono tutti semplici; inoltre: λk (B) ≤ 1
⇔
0 ≤ α ≤ 1/2 .
Per il Teorema 5.8 e le considerazioni successive, relativamente al s.d.d. Wk+1 = BWk , possiamo affermare che l’equilibrio 0 risulta stabile se 0 ≤ α ≤ 1/2 ed attrattivo se 0 < α ≤ 1/2. Se si ha un errore di arrotondamento iniziale E0 (Ej,0 `e l’errore nella valutazione numerica di f (js)) allora si genera un errore Ek al passo k. Si verifica che tale errore risolve il s.d.d. Ek+1 = BEk con dato iniziale E0 . Concludendo, se vale la condizione di instabilit` a numerica gli inevitabili (per quanto piccoli) errori verranno amplificati dalle iterazioni successive, mentre se vale la condizione di stabilit` a numerica essi rimarranno “ben controllati”. Esempio 5.37. (Metodo di Eulero implicito per l’equazione del calore) Sempre con riferimento all’Esempio 1.21 ed alle sue notazioni, una soluzione approssimata del problema (5.21) pu` o essere ottenuta mediante il metodo di Eulero implicito, cio`e dallo schema numerico9 9
Se il dato al bordo (condizioni sui valori di v (0, t) e v (a, t)) per l’equazione (5.21) non `e 0, allora, a causa delle equazioni estreme si deve modificare il secondo membro
5.8 Schemi numerici per la risoluzione di problemi lineari
(1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k V0,k+1 = VN+1,k+1 = 0
225
(5.23)
In termini di sistemi dinamici discreti, lo schema numerico (5.23) genera una traiettoria del s.d.d. vettoriale AVk+1 = Vk a partire da V0 , campionamento del dato iniziale f, con A = IN + αT, dove T `e la matrice tridiagonale (5.19), α = h/s2 , h `e il passo di discretizzazione temporale, s quello spaziale.
⎡
1 + 2α −α ⎢ −α 1 + 2α −α ⎢ ⎢ ⎢ −α 1 + 2α ⎢ ⎢ .. A=⎢ . ⎢ ⎢ ⎢ ⎢ ⎣
⎤ .. ..
.
. . .. .. .. . . −α
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ −α ⎥ 1 + 2α −α ⎦ −α 1 + 2α
Ora ciascun passo risolutivo risulta numericamente non banale perch´e corrisponde ad invertire la matrice tridiagonale A. Grazie all’analisi svolta nell’Esempio 5.34 osserviamo che A `e diagonalizzabile ed i suoi autovettori ed autovalori sono rispettivamente Uk (A) = Uk (T)
1≤k≤N
Figura 5.11 Discretizzazione alle differenze finite con Eulero implicito (5.18)
come segue:
2 3T Vk = Vk + αV0,k+1 0 · · · 0 αVN,k+1
226
5 Sistemi dinamici discreti: equazioni vettoriali
λk (A) = 1 + αλk (T) = 1 + 4α sin
kπ 2 (N + 1)
2 1≤k≤N .
Dunque λk (A) > 1
1 ≤ k ≤ N , ∀α > 0 .
Pertanto A `e sempre invertibile per gli autovalori della ogni α > 0, inoltre −1 matrice inversa verificano 0 < λk A−1 = (λk (A)) < 1 per ogni k. Il Teorema 5.8 assicura che per il s.d.d. Vk+1 = A−1 Vk l’equilibrio 0 risulta stabile ed attrattivo per ogni α > 0. In questo caso l’eventuale errore di arrotondamento Ek nella valutazione di Vk `e governato dal s.d.d. Ek+1 = A−1 Ek con dato iniziale E0 (errore di discretizzazione del dato iniziale), pertanto lo schema di Eulero implicito risulta numericamente stabile per ogni α > 0, cio`e per ogni h > 0 e per ogni s > 0. Riassumendo, abbiamo ricondotto la soluzione dell’equazione del calore ad una cascata di problemi algebrici lineari. Osserviamo che T, A, A−1 sono matrici definite positive per ogni α, mentre B `e definita positiva solo se 0 < α < 1/4 . In pratica, per risolvere il sistema AVk+1 = Vk non si inverte la matrice A (che ha dimensione N ) perch´e ci`o richiederebbe troppe operazioni (dell’ordine di N 2 ). Inoltre A `e tridiagonale, dunque occupa poco spazio in memoria (3N − 2 dati), mentre A−1 non `e una matrice sparsa e dunque occuperebbe troppo spazio in memoria (N 2 dati). Allora anzich´e invertire A si ricorre ad algoritmi numerici pi` u efficienti. Ne citiamo solo due: la decomposizione LU che `e un metodo diretto, ed il metodo SOR che `e un metodo iterativo. Li illustriamo, per semplicit` a, con riferimento alla matrice A = IN + αT che appare nello schema di Eulero implicito per l’equazione del calore. Esempio 5.38. (Il metodo LU) Assegnata la matrice A = IN + αT con T definito da (5.19), cerchiamo due matrici, una triangolare inferiore L, l’altra triangolare superiore U rispettivamente della forma ⎡
0 ··· ⎢ . ⎢ l1 1 . . ⎢ ⎢ L = ⎢ 0 ... ... ... ⎢ ⎢. .. .. ⎣ .. . . 0 · · · 0 lN−1 1 0
⎤ 0 .. ⎥ .⎥ ⎥ ⎥ 0⎥ ⎥ ⎥ 0⎦ 1
⎡
y1 z1 0 ⎢ ⎢ 0 y2 . . . ⎢ ⎢ U = ⎢ 0 ... ... ⎢ ⎢ . .. ⎣ .. . 0 ··· 0
··· ..
.
..
.
0
0 .. .
⎤
⎥ ⎥ ⎥ ⎥ 0 ⎥ ⎥ ⎥ zN−1 ⎦ yN
tali che valga l’uguaglianza A = LU. Per determinare gli elementi li , yi e zi delle due matrici effettuiamo il prodotto LU: ponendo il risultato uguale ad A, otteniamo:
5.8 Schemi numerici per la risoluzione di problemi lineari
227
y1 = (1 + 2α) yi = (1 + 2α) − zi = −α α li = − yi
α2 yi−1
i = 2, . . . , N (5.24)
i = 1, . . . , N − 1
Dunque, le sole quantit` a da calcolare e memorizzare sono le yi al variare di i = 2, . . . , N , da cui si deducono i valori di li e zi . Il problema di partenza AVk+1 = Vk pu` o essere riscritto nella forma L (UVk+1 ) = Vk : tale sistema `e equivalente ai due sottoproblemi UVk+1 = Wk
LWk = Vk
ove Wk `e un vettore intermedio. La soluzione effettiva dei due sistemi algebrici si ottiene come segue. Dalla prima equazione del sistema LWk = Vk si deduce il valore di W1,k mentre gli altri valori delle componenti del vettore Wk si determinano grazie alle relazioni ricorsive Wj,k = Vj,k +
αWj−1,k yj−1
j = 2, . . . , N .
Infine, risolvendo il sistema UVk+1 = Wk si determina immediatamente il valore WN,k+1 VN,k+1 = yN e a ritroso i valori delle restanti componenti del vettore Vk+1 : Vj,k+1 =
Wj,k + αVj+1,k+1 yj
j = 1, . . . , N − 1 .
Esempio 5.39. (Il metodo SOR) Il metodo LU sopra illustrato rappresenta un metodo diretto per risolvere un sistema lineare algebrico del tipo AVk+1 = Vk nel senso che le incognite vengono determinate in un unico passo. In alternativa, si possono considerare dei metodi iterativi. Il metodo SOR (Successive Over-Relaxation) si pu` o considerare un versione particolare del metodo di Gauss-Seidel, che a sua volta `e uno sviluppo del metodo di Jacobi. Il punto di partenza di tutti e tre questi metodi `e l’osservazione che il sistema (1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k pu` o essere riscritto nella forma equivalente Vj,k+1 =
1 (Vj,k + α (Vj−1,k+1 + Vj+1,k+1 )) 1 + 2α
(5.25)
228
5 Sistemi dinamici discreti: equazioni vettoriali
Questo semplice riarrangiamento isola i termini diagonali del membro sinistro. Il metodo di Jacobi consiste nel partire da un valore iniziale approssimato per Vj,k+1 con 1 ≤ j ≤ N − 1, sostituendolo nel membro di destra della (5.25) per ottenere un nuovo valore approssimato per Vj,k+1 . Tale processo viene iterato fino a quando l’approssimazione non cambia significativamente da una iterazione alla successiva: quando ci` o accade si interrompono le iteram zioni perch´e `e stata calcolata la soluzione cercata. Pi` u precisamente: se Vj,k+1 0 rappresenta la m-esima iterata di Vj,k+1 e Vj,k+1 `e l’approssimante iniziale, ci si aspetta che m lim Vj,k+1 = Vj,k+1 . m
Una volta calcolato
m Vj,k+1
m+1 Vj,k+1 =
m+1 si pu` o determinare Vj,k+1 a partire da
m 1 m + Vj+1,k+1 Vj,k + α Vj−1,k+1 1 + 2α
(5.26)
e il processo viene iterato fino a quando l’errore 2 8 8 m+1 m+1 m 82 m 8V V − V = − V k+1 j,k+1 k+1 j,k+1 j
diventa sufficientemente piccolo da non giustificare ulteriori iterazioni. A quem+1 sto punto si pu` o considerare Vj,k+1 come valore di Vj,k+1 . Si verifica che il metodo di Jacobi converge alla soluzione corretta per ogni α > 0. Il metodo di Gauss-Seidel rappresenta un raffinamento del metodo di Jacom+1 nella (5.26) bi. Punto di partenza `e l’osservazione che quando si calcola Vj,k+1 m+1 m `e gi`a noto il valore di Vj−1,k+1: si usa allora tale valore al posto di Vj−1,k+1 e dunque la (5.26) diventa m+1 Vj,k+1 =
1 m+1 m Vj,k + α Vj−1,k+1 + Vj+1,k+1 1 + 2α
(5.27)
Sintetizzando, possiamo affermare che il metodo di Gauss-Seidel utilizza un’approssimante appena questa diventa disponibile aumentando cos`ı, rispetto al metodo di Jacobi, la velocit` a di convergenza. La maggior efficienza del metodo di Gauss-Seidel `e dovuta anche al fatto che l’aggiornamento delle iterate avviene immediatamente riscrivendo la singola iterata calcolata al passo precedente10 , mentre applicando il metodo di Jacobi `e necessario memorizzare separatamente le vecchie iterate in quanto tutte vengono coinvolte nel calcolo delle iterate al passo successivo. Osserviamo infine che anche nel caso del metodo di Gauss-Seidel si pu`o dimostrare la convergenza per ogni valore di α > 0. Il metodo SOR rappresenta un raffinamento del metodo di Gauss-Seidel. Si parte dall’identit` a banale 10
m+1 m m+1 In memoria si sovrascrive Vj−1,k+1 su Vj−1,k+1 prima di calcolare Vj,k+1 .
5.8 Schemi numerici per la risoluzione di problemi lineari
m+1 m+1 m m Vj,k+1 = Vj,k+1 + Vj,k+1 − Vj,k+1
229
.
m → Vj,k+1 , si pu` o pensare che il termine Poich´e m → +∞ implica Vj,k+1 m+1 m Vj,k+1 − Vj,k+1 rappresenti un termine correttivo che deve essere aggiunto m a Vj,k+1 per renderlo pi` u vicino al vero valore Vj,k+1 . Si pu` o cercare di sovram+1 correggere (over-correct): precisamente, il valore Vj,k+1 viene determinato in due tempi a partire dalle relazioni 1 m+1 m+1 m Vj,k + α Vj−1,k+1 Yj,k+1 = + Vj+1,k+1 1 + 2α m+1 m+1 m m Vj,k+1 = Vj,k+1 + ω Yj,k+1 − Vj,k+1
dove ω > 1 si dice parametro di sovrarilassamento (over-relaxation). Si m+1 m+1 noti che il valore Yj,k+1 `e quello fornito dal metodo di Gauss-Seidel per Vj,k+1 : m+1 m invece, con il metodo SOR il termine Yj,k+1 − Vj,k+1 viene visto come una m+1 m correzione da apportare a Vj,k+1 al fine di ottenere Vj,k+1 . Si dimostra che il metodo SOR converge alla soluzione cercata per ogni valore di α > 0 a patto che 0 < ω < 2. Si pu` o inoltre dimostrare l’esistenza di un unico valore del parametro ω compreso fra 1 e 2 in corrispondenza del quale si ha la massima velocit`a di convergenza. Tale valore dipende dalla dimensione della matrice considerata e dalla tipologia dei suoi elementi. Consideriamo ora un semplice ma istruttivo esempio: il sistema di equazioni lineari algebriche ( ) ( ) ( ) 1 1 X1 B1 EX = B dove E= X= B= . 1 1, 01 X2 B2 Poich´e det E = 0 si sa che qualunque sia la scelta di B esiste una ed una sola soluzione del sistema. Tuttavia il sistema `e mal condizionato nel senso seguente: a piccole variazioni del dato B possono corrispondere grandi variazioni della soluzione. T T T Ad esempio, se B = 2 2, 01 allora X = 1 1 , se invece B = 2 1, 9 T allora X = 12 −10 . Ci`o si verifica perch´e (bench´e E sia definita positiva e strettamente positiva) il rapporto tra massimo e minimo autovalore di E `e molto grande; infatti, risolvendo l’equazione caratteristica λ2 − 2, 01λ + 0, 01 = 0 si ricavano gli √ autovalori λ1,2 = 201 ± 40001 /200, cio`e: λ1 = 4, 9875 × 10−3 da cui si ottiene
λ2 = 2, 005
λ2 ∼ 400 λ1 Si noti che λ2 `e stimabile senza calcolarlo effettivamente (Osservazione 5.20): 2 ≤ λ2 ≤ 2, 01.
230
5 Sistemi dinamici discreti: equazioni vettoriali
I problemi mal condizionati vanno affrontati con opportune manipolazioni preliminari alla soluzione numerica, allo scopo di evitare errori grossolani. Cerchiamo di formalizzare questo discorso discutendo la sensibilit` a delle soluzioni del sistema lineare MX = B (5.28) rispetto alle perturbazioni del vettore dato B. Consideriamo il problema perturbato M (X + δX) = (B + δB) (5.29) dove δB `e una perturbazione di B e X + δX `e la soluzione corrispondente al dato perturbato B + δB. Osserviamo che, grazie alla linearit` a, da (5.28) e (5.29) segue M δX = δB . Teorema 5.40. (Stima dell’errore relativo dovuto a perturbazioni del dato nella soluzione di un sistema lineare algebrico) Se M `e una matrice invertibile, (5.28) e (5.29) implicano δX δB ≤ X (M) X B 8 −1 8 dove X (M) = M 8M 8 `e detto numero di condizionamento della matrice non singolare M ed M = max (MX / X) `e la norma di M X =0
come trasformazione lineare in Rn (si veda la Definizione 5.31). Prova. Da (5.28) e (5.29) seguono δX = M−1 (B + δB) − X = M−1 (B + δB − B) = M−1 δB δB δB δB δX ≤ ||M−1 || ≤ ||M−1 || ||M|| ≤ X (M) . X X ||M|| X B
Osservazione 5.41. Nei casi in cui M `e una matrice simmetrica reale e definita positiva, vale X (M) = λmax (M) /λmin (M). Vediamo le conseguenze del Teorema 5.40 e dell’Osservazione 5.41 in qualche esempio concreto. Osserviamo che la matrice tridiagonale reale simmetrica dell’Esempio 5.34 pur essendo definita positiva `e mal condizionata: λmax (T) ∼ λmin (T)
N +1 π
2
Invece la matrice B = I − αT `e ben condizionata se 0 < α < 1/8 perch´e in tal caso 1 0 < < λmin (B) < λmax (B) < 1 . 2 −1
La matrice A−1 = (I + αT)
`e ben condizionata se α > 0 perch´e in tal caso
5.9 Esercizi di riepilogo
0<
231
1 < λmin A−1 < λmax A−1 < 1 5
dunque il problema algebrico che si deve risolvere nello schema di Eulero implicito `e ben condizionato. Osservazione 5.42. Supponiamo di affrontare il problema Δu = f nel quadrato (0, a) × (0, a) con condizione di Dirichlet omogenea (u = 0 sul bordo del quadrato) utilizzando la formula del Laplaciano a cinque punti (vedi Esercizio 1.16 di cui utilizziamo le notazioni). Suddividendo in 101 intervallini ciascun lato del quadrato, si ottiene una griglia nei cui nodi interni . (100 × 100 = 10 000) deve essere soddisfatta una relazione lineare. In definitiva, si deve risolvere il sistema algebrico lineare MU = F dove M ha . . . . 10 000 × 10 000 = 100 000 000 elementi. Se anche ciascun elemento della matrice avesse a disposizione un solo bit (in pratica ve ne sono di pi` u) avremmo una occupazione di memoria di 100 megabytes solo per archiviare la discretizzazione del dato, a meno di non sfruttare algoritmi adatti a matrici sparse ` dunque essenziale sfruttare come `e il caso di M o algoritmi di tipo parallelo. E al massimo la struttura della matrice M quando la sua dimensione `e elevata, come abbiamo fatto con la decomposizione LU o il metodo SOR. Osservazione 5.43. Il problema di determinare il prezzo di una opzione descritta dal modello di Black and Scholes pu` o essere risolto numericamente con i metodi descritti in questo paragrafo per l’equazione del calore dopo aver effettuato la trasformazione dell’Esercizio 1.17. Esercizio 5.5. Data la matrice tridiagonale ⎡ 5 2 0 0 ⎢2 5 2 0 ⎢ ⎢0 2 5 2 ⎢ M=⎢ ⎢0 0 2 5 ⎢ ⎢. . . . ⎣ .. .. .. .. 0 0 0 ···
⎤ ··· 0 ··· 0⎥ ⎥ ··· 0⎥ ⎥ .. ⎥ ··· . ⎥ ⎥ ⎥ .. . 2⎦ 2 5
a) stimarne (in modo semplice!) l’autovalore dominante; b) provare che `e definita positiva e calcolarne gli autovalori.
5.9 Esercizi di riepilogo Esercizio 5.6. Date le matrici 0
10 11
1
0
1 −1 1 1
1
⎡
⎤ 123 ⎣3 2 1⎦ 111
⎡
⎤ 123 ⎣3 2 1⎦ 122
⎡
⎤ 100 ⎣3 1 0⎦ 122
determinare la forma canonica di Jordan associata e la base corrispondente.
232
5 Sistemi dinamici discreti: equazioni vettoriali
Esercizio 5.7. Dimostrare che se M `e una matrice quadrata di ordine 2 che ammette la decomposizione M = S + T con S semisemplice e T nilpotente, allora Mk = Sk + kTSk−1 . Esercizio 5.8. Provare che se A `e una matrice quadrata reale di ordine n, e λ = a + ib `e autovalore di A (con a, b ∈ R, b = 0), allora anche λ = a − ib `e autovalore di A ed gli autovettori associati a λ e λ sono complessi e coniugati. Nel caso n = 2, mostrare 0 che 1esiste una base reale rispetto alla quale la matrice a −b A si rappresenta come , cio`e una omotetia composta con una matrice di b a rotazione. Esercizio 5.9. Consideriamo una matrice di Leslie L e supponiamo (pi` u realisticamente di quanto fatto nel paragrafo 5.5) che il tasso di fertilit` a dell’ultima classe d’et` a sia nullo: ϕn = 0. In tal caso il Teorema 5.13 non si applica: ogni potenza Lk ha l’ultima colonna di elementi nulli. ⎡ ⎤ 0 ⎢ 0 0 0 0 0⎥ ⎢ ⎥ ⎢ 0 0 0 0 0⎥ ⎥ L=⎢ ⎢ 0 0 0 0 0⎥ ⎢ ⎥ ⎣ 0 0 0 0 0⎦ 0 0 0 0 0 Si applica comunque il Teorema 5.14. Si provi a dire qualcosa di pi` u preciso sulla dinamica di Yk+1 = LYk considerando la matrice di Leslie B di ordine n − 1 ottenuta rimuovendo l’ultima riga e l’ultima colonna. Esercizio 5.10. Calcolare l’autovalore dominante (o perlomeno stimarne il valore) per le matrici: ⎡ ⎤ ⎡ ⎤ 1234 1142 ⎢4 3 2 1⎥ ⎢1 1 2 2⎥ ⎥ ⎥ A=⎢ B=⎢ ⎣5 5 0 0⎦ ⎣2 1 0 2⎦ 2233 2200 Esercizio 5.11. Determinare l’espressione non ⎡ ricorsiva⎤ delle soluzioni del s.d.d. 0 1 0 2 3T dove A = ⎣ 0 0 −1 ⎦ . Xk+1 = AXk con X0 = 1 0 −1 2 −1 0
6 Catene di Markov
Le catene di Markov1 sono modelli astratti che descrivono processi di estrema importanza nelle applicazioni del calcolo delle probabilit` a. Considereremo un insieme finito di eventi; supporremo che tali eventi si susseguano secondo un parametro discreto (che in molti casi `e il tempo), e si verifichino con una probabilit` a che dipende solo dall’evento verificatosi precedentemente. In un sistema dinamico deterministico lo stato al tempo k + 1 `e determinato in modo unico da quello al tempo k, invece nel caso che vogliamo studiare in questo capitolo `e la distribuzione di probabilit` a dei vari eventi al tempo k + 1 ad essere determinata da quella al tempo k. Supporremo che tale distribuzione dipenda univocamente da quella al tempo k. Inoltre richiederemo che tale legame di dipendenza sia lo stesso per ogni k. Denoteremo con P (E) la probabilit` a di realizzazione di un evento E; dunque, P (E) `e sempre un numero reale appartenente all’intervallo [0, 1]. Per un sommario delle identit` a elementari che sono utili nel calcolo delle probabilit`a rinviamo all’Appendice C.
6.1 Esempi, definizioni e notazioni Prima di introdurre delle definizioni formali, esaminiamo degli esempi. Riprendiamo in esame il problema della “rovina del giocatore”, gi` a discusso nell’Esempio 1.17 e risolto nell’Esercizio 2.35 come equazione scalare a due passi. Qui ne presentiamo un modello meno elementare allo scopo di affrontare, mediante le tecniche di questo paragrafo, un esempio gi` a studiato. Esempio 6.1. Due giocatori A e B possiedono rispettivamente a e b monete, a > 0, b > 0. A e B giocano a testa o croce con una moneta equa (la probabilit` a p di 1
Andrei A. Markov, 1856-1922. Uno dei fondatori del moderno calcolo delle probabilit` a. Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
234
6 Catene di Markov
avere testa `e uguale alla probabilit` a q di avere croce: p = q = 1/2): chi vince un turno prende una moneta all’avversario. Vince la partita chi rovina l’avversario, ottenendo tutte le a + b monete. Poniamo a + b = s. Per descrivere la situazione del gioco ad un dato turno, consideriamo il numero Xk di monete possedute dal giocatore A (B ne possiede s − Xk ) prima di giocare il turno (k + 1)-esimo. ` comodo riportare in un diagramma le possibili storie della partita: si veda E la Figura 6.1. Per calcolare la probabilit` a che A dopo tre lanci della moneta possegga a + 1 monete, dobbiamo valutare la probabilit` a di ciascuno dei possibili “percorsi” che si concludono in tre tappe in a + 1 : 3 1 A perde A vince A vince a −→ a − 1 −→ a −→ a + 1 : probabilit` a 2 3 1 A perde A vince A vince a −→ a + 1 −→ a −→ a + 1 : probabilit` a 2 3 1 A perde A vince A vince a −→ a + 1 −→ a + 2 −→ a + 1 : probabilit` a 2 Poich´e i tre percorsi rappresentano tre storie diverse (eventi disgiunti) la probabilit` a richiesta `e data dalla somma delle probabilit` a di ciascun pecorso, cio`e da 3/8. Gli stati possibili sono i valori che pu` o assumere Xk nel corso della partita, cio`e {0, 1, . . . , s}. Pu` o essere utile visualizzare graficamente le possibili transizioni tra i vari stati: con riferimento alla Figura 6.2, utilizziamo gli archi orientati per rappresentare la probabilit` a di transizione da un valore ad un altro della somma posseduta da A . Ad ogni arco corrisponde una probabilit` a di transizione2 . a
a−3
a−2
a−1
a+1 a
a−1
a+2 a+1
a+3
Figura 6.1 Possibili andamenti del capitale di A corrispondenti a tre lanci consecutivi della moneta
2
Il lettore familiare con il calcolo delle probabilit` a pu` o osservare che la probabilit` a di transizione da uno stato E ad un altro stato F `e un esempio di probabilit` a condizionale, cio`e la probabilit` a che si cada in F essendo certi di partire dallo stato E.
6.1 Esempi, definizioni e notazioni
235
Figura 6.2 Grafo che illustra le possibili transizioni e le loro probabilit` a
Ciascuna di queste probabilit` a dipende dalla moneta ma non dipende dal numero di turni di gioco effettuati in precedenza. Avendo supposto che la moneta non sia truccata, e dunque che il gioco sia equo, 1/2 `e la probabilit` a di passare da j a j + 1 o da j a j − 1 monete, se 0 < j < s, invece `e 1 la probabilit` a di passare da 0 a 0 o da s ad s monete (sono due situazioni cui si pu` o pervenire, ma da cui non si pu` o uscire). Calcoliamo la probabilit` a che A vinca il gioco. Questo corrisponde al verificarsi di un evento dell’infinit` a di possibili (ma non tutti) sviluppi del gioco: A vince al primo turno A vince al secondo turno A vince al terzo turno .. . Ciascuno di questi eventi si realizza con un numero finito di percorsi nel grafo (tale numero cresce rapidamente al crescere del numero d’ordine del turno della vittoria) la cui probabilit` a `e data dal prodotto delle probabilit` a del verificarsi di ciascuna transizione. La probabilit` a di vittoria `e la somma delle probabilit` a di tali eventi. Posto P (j), j = 0, 1, . . ., s, la probabilit` a di vincere partendo con j monete, si ottiene 1 (P (j − 1) + P (j + 1)) j≥1 (6.1) 2 formula che ha una interpretazione geometrica: ogni terna di coordinate (j − 1, P (j − 1)), (j, P (j)), (j + 1, P (j + 1)) corrisponde a tre punti allineati nel piano. Inoltre, da P (0) = 0 e P (s) = 1 segue che tutte le coppie (j, P (j)) appartengono ad una retta passante per l’origine: P (j) =
j . s Dunque, la probabilit` a di vittoria per A (uguale alla probabilit` a di rovina per B) sostituendo i nostri dati iniziali `e a P (a) = . a+b P (j) =
236
6 Catene di Markov
Come si era gi`a osservato, pur essendo equo il gioco, le probabilit` a sono a favore di chi detiene un pi` u cospicuo capitale iniziale (si rifletta sul fatto che A in caso di vittoria conquista b monete, B invece ne conquista a). Una completa descrizione dell’evoluzione del gioco pu` o essere ottenuta utilizzando l’Algebra Lineare per esprimere in modo sintetico tutte le informazioni contenute nella Figura 6.2: T se Pk = Pk (0) Pk (1) . . . Pk (s) `e il vettore delle probabilit` a Pk (t) di avere t monete al tempo k, abbiamo un esempio di catena di Markov ad s + 1 stati descritta da ⎡ ⎤ 1 1/2 0 0 · · · 0 0 ⎢ 0 0 1/2 0 · · · 0 0 ⎥ ⎢ ⎥ ⎢ 0 1/2 0 1/2 · · · 0 0 ⎥ ⎢ ⎥ ⎢ .. .. ⎥ .. .. ⎢ . . .⎥ Pk+1 = MPk dove M = ⎢ 0 0 1/2 . ⎥. ⎢. . ⎥ . . . . . . ⎢. . . 0 1/2 0 ⎥ . ⎥ ⎢ ⎣ 0 0 0 · · · 1/2 0 0 ⎦ 0 0 0 . . . 0 1/2 1 Con tale notazione, se si inizia con j monete allora la probabilit` a di vittoria al tempo k, cio`e Pk (s), `e data dall’ultima componente del vettore Mk P0 , ove T P0 = 0 · · · 1 · · · 0 la cui unica componente non banale `e la j-esima. " # Esempio 6.2. Due urne contengono delle biglie colorate. La prima ne contiene 2 bianche e 3 nere, la seconda 4 bianche e 5 nere. Si estrae una biglia dalla prima urna, se ne registra il colore e la si reintroduce nella sua urna. Se era bianca si effettua la successiva estrazione dalla prima urna, se era nera, dalla seconda. Quindi si itera il procedimento. Ci si chiede qual `e la probabilit` a che alla quinta estrazione la biglia sia bianca. Si tratta di un esempio di catena di Markov a due stati: uno stato `e l’estrazione di una biglia bianca, l’altro `e l’estrazione di una biglia nera. Se la k-esima biglia estratta `e bianca, allora alla (k + 1)-esima estrazione la probabilit` a di estrarre bianca `e 2/5, quella di estrarre nera `e 3/5; se la k-esima biglia `e nera, allora alla (k + 1)-esima estrazione la probabilit` a di estrarre bianca `e 4/9, nera 5/9. Per risolvere il problema posto, consideriamo tutti i casi possibili e definiamo Pk la probabilit` a che la k-esima estrazione sia bianca e Qk = 1 − Pk la probabilit` a che sia nera. Sappiamo, estraendo dalla prima urna, che P1 = 2/5 e Q1 = 3/5. Se la k-esima estrazione `e bianca, allora la probabilit` a che la (k + 1)-esima sia ancora bianca `e 2/5; se la k-esima estrazione `e nera, allora la probabilit` a che la (k + 1)-esima sia bianca `e 4/9. Poich´e si tratta di eventi disgiunti la cui unione d` a tutti i casi in cui si pu` o ottenere bianca alla (k + 1)-esima estrazione, si ha: Pk+1 =
2 4 P k + Qk 5 9
(6.2)
6.1 Esempi, definizioni e notazioni
237
e ricordando che Pk + Qk = 1 Pk+1 =
4 2 − Pk . 9 45
Se esiste lim Pk = L ∈ R, allora vale anche Pk+1 → L e quindi k
L=
2 4 − L 9 45
⇒
L=
20 . 47
k−1
Esplicitamente, sappiamo Pk = 20/47 + (2/45) (P1 − 20/47) , k ∈ N\ {0}. Si potrebbe procedere con le stesse regole ma iniziando ad estrarre dalla seconda urna; tuttavia l’argomentazione precedente prova che la scelta della prima urna e la prima estrazione non influenzano la probabilit` a Pk per valori di k “grandi”. Dunque, se avessimo cominciato dalla seconda urna non sarebbe cambiato molto: Pk tende allo stesso valore L qualunque sia l’urna da cui si inizia, tuttavia P1 = 2/5 se si inizia dalla prima urna, mentre P1 = 4/9 se si inizia dalla seconda urna. T Comunque, posto Pk = Pk Qk possiamo tradurre la (6.2) nel modo seguente: ( ) 2/5 4/9 Pk+1 = MPk k≥1 dove M= . 3/5 5/9 Se vi fossero state biglie con pi` u di due colori, avremmo avuto una catena di Markov con pi` u di due stati ed avremmo utilizzato matrici di ordine corrispondente al numero dei colori. In generale, una catena di Markov `e un modello per descrivere una successione di esperimenti in ciascuno dei quali i risultati possibili (ad esempio, estrazione di una biglia bianca o nera) sono gli stessi in ogni esperimento. Tuttavia la probabilit` a di uno stesso evento (ad esempio, biglia bianca) dipende solo dal risultato dell’esperimento precedente. Nel caso in cui il parametro `e il tempo si usa anche dire che le catene di Markov descrivono fenomeni che dipendono dal passato solo tramite il presente. Diamo a questo punto una definizione formale. Qui e nel seguito il parametro k che descrive il processo `e sempre considerato come tempo. Definizione 6.3. Una catena di Markov finita e omogenea3 `e un processo descritto da un insieme finito Ω = {s1 , s2 , . . . , sn } di stati (o eventi) si distinti, tali che, per ogni coppia ordinata di stati sj , si , `e assegnata una probabilit` a mij di transizione dallo stato sj allo stato si , indipendente da k. Necessariamente le probabilit` a di transizione di una catena di Markov soddisfano le relazioni: Noi studieremo solo il caso, detto omogeneo, in cui M `e costante. Nei casi non omogenei si ha M = M (k).
3
238
6 Catene di Markov
0 ≤ mij ≤ 1
n
i, j = 1, . . . , n ;
mij = 1 ∀j = 1, . . . , n .
(6.3)
i=1
La probabilit` a con cui si pu` o presentare uno stato si al tempo k + 1 dipende solo dallo stato che si `e presentato al tempo k, cio`e mij = P Xk+1 = si | Xk = sj , Xk−1 = sjk−1 , . . . , X1 = sj1 , X0 = sj0 = = P (Xk+1 = si | Xk = sj ) . Come si `e fatto per l’Esempio 6.1 nella Figura 6.2, una catena di Markov pu` o essere descritta e visualizzata mediante un grafo orientato, cio`e un insieme di ` sottinteso che vertici (gli eventi) e di lati (frecce che collegano gli eventi). E ad ogni vertice A collegato mediante una freccia ad un altro vertice (incluso il vertice stesso A) e a ciascuna freccia `e associata una probabilit` a di transizione positiva; non si tracciano i cammini che corrispondono a probabilit` a di transizione nulla. Per una trattazione pi` u approfondita dei grafi si veda il Capitolo 7. Dal punto di vista algebrico, `e comodo rappresentare una catena di Markov mediante la matrice di transizione (o matrice stocastica) M = [mij ] i cui elementi sono le probabilit` a di transizione mij dallo stato sj allo stato si . La (6.3) assicura che M `e una matrice positiva e la somma degli elementi di ciascuna sua colonna `e pari a 1. Lemma 6.4 Sia M = [mij ] una matrice positiva di dimensione n. Valgono le seguenti conclusioni: (1) M `e stocastica se e solo se: T 1 `e autovalore di MT con autovettore associato 1 = 1 1 . . . 1 ; (2) se M `e stocastica, ogni suo autovalore λs soddisfa |λs | ≤ 1. ` sufficiente osservare che la condizione di stocasticit` Prova. (1) E a per una matrice positiva M equivale a MT ·1 = 1 e ricordare che M ed MT hanno gli stessi autovalori. (2) Se Vs `e autovettore associato a λs allora: n n n n n n
s s s |Vi | = |λs Vi | = mij Vj ≤ mij Vjs = |λs | i=1 i=1 i=1 j=1 i=1 j=1 n n n
s s Vj . mij Vj = = j=1
Poich´e
n
s r=1 |Vr |
i=1
= 0 si ottiene la tesi.
j=1
Si noti che una matrice stocastica pu` o ammettere pi` u autovalori di modulo unitario. Inoltre, possono esservi anche autovalori doppi, nulli o negativi come accade per le seguenti matrici stocastiche:
6.1 Esempi, definizioni e notazioni
(
1 0 0 1
)
(
0 1 1 0
)
(
1/2 1/2 1/2 1/2
239
)
o anche complessi se n ≥ 3 (cfr. Esercizio 6.13).4 T Siano M = [mij ] una matrice stocastica e Pk = Pk1 Pk2 . . . Pkn il vettore delle probabilit` a di ciascuno stato al tempo k (Pkj `e la probabilit` a di osservare lo stato sj al tempo k). Si ha per ogni k ∈ N: 0 ≤ Pkj ≤ 1 , j = 1, . . . , n ;
n
Pkj = 1 ∀k ∈ N .
(6.4)
j=1
Dalle ipotesi fatte, per ogni k ∈ N j Pk+1 = Pk1 mj1 + Pk2 mj2 + · · · + Pkn mjn
dunque le n equazioni alle differenze che descrivono la probabilit` a degli n stati ammissibili al tempo k+1 in funzione delle corrispondenti probabilit` a al tempo precedente, costituiscono un sistema dinamico discreto vettoriale, ad un passo, lineare omogeneo5 : Pk+1 = M Pk
∀k ∈ N (6.5)
Lemma 6.5 Se M `e stocastica e P `e una successione che soddisfa (6.5), allora la validit` a di (6.4) per un valore fissato k, implica la validit` a di (6.4) per ogni k > k. Prova. La (6.5) dice che Pk+1 `e combinazione lineare delle colonne di M con coefficienti dati dalle componenti di Pk . j ≥ 0 ∀j. Inoltre Da mij ≥ 0 e Pkj ≥ 0 ∀i, j segue Pk+1 n n n n n n n
j
h h Pk+1 = mjh Pk = mjh Pk = mjh Pkh = j=1
j=1
=
n
h=1
h=1
h=1
j=1
h=1
j=1
Pkh = 1.
1 ab , con a, b, c, d ≥ 0, il polinomio caratteristico P (λ) = cd 2 λ − (a + d) λ + (ad − bc) ha discriminante uguale a (a − d)2 + 4bc ≥ 0, dunque tutti gli autovalori sono reali; inoltre, per la regola dei segni di Cartesio, entrambi sono positivi se ad > bc, uno positivo e uno nullo se ad = bc, uno positivo e uno negativo se ad < bc. 4
0
Se n = 2 e M =
5
Attenzione: in alcune trattazioni si assume che mij rappresenti la probabilit` a di n j h T mhj Pk ossia Pk+1 = M Pk ; in tali casi transizione da i a j e quindi Pk+1 = h=1
`e la somma degli elementi di ogni riga di M ad essere uguale ad 1.
240
6 Catene di Markov
Ne segue anche j ≤1 Pk+1
∀j.
Si `e provata la validit` a di (6.4) per k = k + 1. Il caso generale (k > k) segue per induzione.
Riassumendo, il Lemma appena dimostrato afferma che una matrice stocastica trasforma un vettore distribuzione di probabilit` a in un altro vettore distribuzione di probabilit` a. In generale, una catena di Markov sar` a descritta dal s.d.d. vettoriale (6.5) con matrice M stocastica e con dato iniziale di tipo distribuzione di probabilit` a (distribuzione di probabilit` a iniziale), cio`e 0≤
P0j
≤ 1,
n
j = 1, . . . , n;
P0j = 1 .
(6.6)
j=1
La dinamica di tale sistema si svolge nel sottoinsieme proprio S di Rn : ⎧ ⎫ n ⎨ ⎬ S = V ∈ Rn : V j ≥ 0 ∀j , Vj = 1 , ⎩ ⎭ j=1
cio`e tutte le traiettorie sono contenute in S. (0,1)
(0,0,1)
1
(0,1,0)
n=1 (1,0) n=2
(1,0,0) n=2
Figura 6.7 n simplessi, n = 1, 2, 3
S `e detto n-simplesso. S `e convesso, chiuso e limitato e coincide con l’insieme di tutte le possibili distribuzioni di probabilit` a su un insieme di n stati. Il Lemma 6.5 pu` o essere riformulato nel modo seguente: il simplesso S `e invariante per la dinamica del s.d.d. vettoriale (6.5) nel senso che se P ∈ S allora MP ∈ S. Studieremo in dettaglio la dinamica del sistema (6.5) ristretta ad S. Sistemi dinamici vettoriali ad un passo del tipo (6.5) sono stati studiati nel Capitolo V. La loro soluzione esplicita `e:
Pk = Mk P0
∀k ∈ N
6.1 Esempi, definizioni e notazioni
241
Poich´e {s1 , . . . , sn } descrive una collezione disgiunta di tutti gli stati possibili, (k) si verifica che il generico elemento mij di Mk rappresenta la probabilit` a di transizione dallo stato j allo stato i in k passi, cio`e: (k)
mij = P (Xn+k = si | Xn = sj ) .
(6.7)
In generale, per ogni k e h in N, valgono le relazioni: (equazioni di Chapman-Kolmogorov)
(k+h)
mij
=
n
(k)
(h)
mir mrj .
r=1
Quando la matrice di transizione M ha l’autovalore 1 semplice e non ha altri autovalori di modulo unitario l’analisi asintotica della catena di Markov associata `e descritta in modo completo dal Teorema seguente. Teorema 6.6. Sia M una matrice stocastica, V1 , . . . , Vn una base di autovettori (o base di Jordan di autovettori generalizzati se necessario) di M cui corrispondono gli autovalori λ1 , . . . , λn verificanti λ1 = 1, |λj | < 1, ∀j = 1. Allora V1 > O, dunque non `e restrittivo supporre che V1 sia una distribuzione di probabilit` a Vj1 = 1 (6.8) j
cosa che faremo nel seguito. Inoltre ogni distribuzione di probabilit` a iniziale P0 , si pu` o rappresentare mediante n cj V j con c1 = 1 (6.9) P0 = j=1
e la corrispondente soluzione Pk del sistema dinamico (6.5) verifica Pk = c1 λk1 V1 + c2 λk2 V2 + · · · + cn λkn Vn
(6.10)
se V1 , . . . , Vn sono tutti autovettori (o in generale, se nella base sono presenti anche autovettori generalizzati, Pk = c1 λk1 V1 + Wk
(6.11)
dove il vettore Wk `e una somma finita con coefficienti indipendenti da k di termini a crescita al pi` u k mj λkj , con |λj | < 1) . Infine lim Pk = V1 . (6.12) k
Prova. Fissato P0 , per opportuni (unici) cj vale P0 = Le rappresentazioni (6.10) e (6.11) implicano lim Pk = c1 V1 , k
n j=1
da cui c1 Vj1 ≥ 0
cj V j .
∀j .
(6.13)
242
6 Catene di Markov
Poich´e risulta
n h=1
Pkh = 1, ∀k, si ricava 1 = lim k
cio`e c1 = 0 ,
n
1 h=1 Vh
n
Pkh = c1
h=1
n
Vj1
j=1
= 0 e c1 =
1 . V11 + V21 + · · · + Vn1
(6.14)
Da (6.4) e (6.13) segue che c1 V1 ha tutte le componenti non negative ed almeno a; una strettamente positiva, dunque `e lecito scegliere V1 distribuzione di probabilit` ne segue c1 = 1 e (6.12).
Abbiamo cos`ı provato che ogni distribuzione di probabilit` a iniziale P0 ha una componente non banale lungo V1 , anzi P0 coincide con V1 se tale autovettore `e stato selezionato (cosa sempre possibile) come una distribuzione di probabilit` a (si confronti la conclusione con l’Osservazione 5.19 valida nel caso di s.d.d. vettoriali la cui dinamica non `e confinata al simplesso S delle distribuzioni di probabilit` a). Osservazione 6.7. L’informazione c1 = 1 nella tesi del Teorema 6.6 pu`o apparire sorprendente ad una prima lettura. In realt` a diventa assai naturale se si considera che, per ogni matrice stocastica M la distribuzione di probabilit` a uniforme [1/n 1/n · · · 1/n]T `e autovettore relativo all’autovalore 1 per la sua trasposta MT , e nel caso in esame tale autovalore `e semplice per MT perch´e semplice per M; dunque, osservato che ogni distribuzione di probabilit` a iniziale P0 verifica P0 > 0, si pu` o ripetere l’argomento nella prova del Teorema 5.19 (senza usare il Teorema di Frobenius-Perron che serviva solo per la semplicit` a dell’autovalore di massimo modulo che qui vale 1 ed `e semplice per ipotesi) ottenendo che tutti gli autovettori generalizzati (diversi da V1 ) Vj j ≥ 2 sono ortogonali a [1/n 1/n · · · 1/n]T che a sua volta `e ortogonale al simplesso di tutte le distribuzioni di probabilit` a. La situazione illustrata nel Teorema 6.6 (autovalore dominante semplice uguale ad 1 associato ad un autovettore positivo) `e particolarmente semplice e ben ` utile saperla identificare in generale. descritta. E Definizione 6.8. Una catena di Markov regolare `e una catena di Markov con matrice di transizione M per cui esiste un valore di k tale che la matrice Mk `e strettamente positiva (Definizione 5.11). Dunque, una catena di Markov `e regolare se esiste un k intero positivo tale che la probabilit` a di transizione in k passi fra due suoi stati qualsiasi `e positiva. Esempio 6.9. La matrice stocastica (
0 1/2 M= 1 1/2
)
6.1 Esempi, definizioni e notazioni
243
`e regolare dato che (
0 1/2 M = 1 1/2
)(
2
) ( ) 0 1/2 1/2 1/4 = . 1 1/2 1/2 3/4 (
La matrice stocastica M=
1 1/2 0 1/2
)
non `e regolare; infatti (
1 1/2 M = 0 1/2
)(
2
e, supponendo che sia
(
M
k−1
si ottiene
(
M =M·M k
k−1
) ( ) 1 1/2 1 3/4 = 0 1/2 0 1/4
1 1/2 = 0 1/2
1 pk−1 = 0 1 − pk−1
)(
)
) ) ( 1 (pk−1 + 1)/2 1 pk−1 . = 0 (1 − pk−1 )/2 0 1 − pk−1
Per riconoscere se una matrice stocastica `e regolare risulta utile il seguente teorema. Teorema 6.10. Se una catena di Markov `e regolare, allora la sua matrice di transizione M ha esattamente un solo autovalore uguale ad 1 e tutti gli altri sono strettamente minori di 1 in modulo. A tale autovalore dominante `e associato un autovettore strettamente positivo. Prova. Sappiamo (vedi Lemma 6.4) che 1 `e un autovalore di M e che non vi sono autovalori di modulo maggiore di 1. Per il Teorema di Frobenius-Perron (Teoremi 5.12 e 5.13) se la catena `e regolare, allora M ha un autovalore dominante positivo e semplice che necessariamente `e l’autovalore 1. La stretta positivit` a del corrispondente autovettore segue dal Teorema di Frobenius-Perron: per la stretta positivit` a se ne pu` o determinare un multiplo strettamente positivo la cui somma delle componenti sia esattamente 1 (cio`e sia una distribuzione di probabilit` a).
I Teoremi 6.10 e 6.6 mostrano che i s.d.d. associati a catene di Markov regolari hanno notevoli propriet` a qualitative e quantitative: il quadro generale sar` a sintetizzato nel Teorema 6.37. Esempio 6.11. La matrice stocastica ⎡ ⎤ 1 0 1/3 M = ⎣ 0 1 1/3 ⎦ 0 0 1/3 non `e regolare, avendo autovalori λ1 = λ2 = 1 e λ3 = 1/3.
244
6 Catene di Markov
Definizione 6.12. Uno stato assorbente per una catena di Markov ad n stati, `e uno stato sj tale che mjj = 1. Esplicitamente, uno stato sj `e assorbente se il suo verificarsi al tempo k implica la certezza di riottenere sj al tempo k + 1. Osservazione 6.13. Se sj `e uno stato assorbente, la j-esima colonna della matrice di transizione M `e del tipo T (6.15) 0 ... 0 1 0 ... 0 ↑
j-esima posizione
Inoltre, ad sj corrisponde un autovalore di M uguale a 1 che ha (6.15) come autovettore associato. Definizione 6.14. Una catena di Markov assorbente `e catena di Markov che verifica le due condizioni seguenti: • esiste almeno uno stato assorbente; • da ogni stato iniziale si pu` o pervenire ad uno stato assorbente, cio`e per ogni (k) j esiste un indice i ed un intero k > 0 tali che si `e assorbente e mij > 0. Esempio 6.15. La seguente matrice ⎡
⎤ 0 0 0 M = ⎣1 0 0 ⎦ 0 1 1
`e associata ad una catena di Markov assorbente. Esempio 6.16. Consideriamo la catena di Markov assorbente a 5 stati (i primi due sono assorbenti) con matrice di transizione: ⎡ ⎤ 1 0 0, 2 0 0, 1 ⎢ 0 1 0, 2 0, 3 0, 2 ⎥ ⎥ ⎢ ⎥ M=⎢ ⎢ 0 0 0, 2 0, 3 0, 3 ⎥ . ⎣ 0 0 0, 2 0, 4 0, 2 ⎦ 0 0 0, 2 0 0, 2 Si noti che ci si pu` o trovare fuori dagli stati 1 e 2 per tempi arbitrariamente lunghi, ma in ogni evoluzione, ad ogni k, ad ogni stato vi `e probabilit` a positiva di cadere o nello stato 1 o nello stato 2. Esempio 6.17. Consideriamo la catena di Markov a quattro stati, non assorbente, con uno stato assorbente (il primo) e con matrice di transizione: ⎤ ⎡ 1 0, 2 0 0 ⎢ 0 0, 2 0 0 ⎥ ⎥ M=⎢ ⎣ 0 0, 3 0, 5 0, 5 ⎦ ; 0 0, 3 0, 5 0, 5 in questo caso, se si transita nel 3◦ o 4◦ stato, il primo diventa inaccessibile.
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti
245
Osservazione 6.18. Si noti che la presenza anche di un solo stato assorbente in una catena di Markov con almeno 2 stati fa s`ı che la catena non possa essere regolare: infatti la corrispondente matrice di transizione M non `e strettamente positiva (nella colonna corrispondente allo stato assorbente vi sono degli zeri) e ciascuna sua potenza intera presenter` a almeno uno zero (dato che la suddetta colonna rappresenta un autovettore di M). Esercizio 6.1. Stabilire quali delle catene di Markov associate alle seguenti matrici di transizione sono regolari: Esercizio 6.2. Stabilire quali delle catene di Markov associate alle seguenti matrici di transizione sono assorbenti:
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti In questo paragrafo descriviamo alcuni strumenti per lo studio qualitativo delle catene di Markov. La legge ricorsiva Pk+1 = MPk che definisce una catena di Markov (che `e un s.d.d. vettoriale lineare omogeneo) ci consente di calcolare le probabilit` a dei vari stati al tempo k + 1 se `e nota la probabilit` a di ciascuno di essi al tempo k (ricordiamo che ∀k ∈ N, Pk `e il vettore ad n componenti che determina la distribuzione di probabilit` a corrispondente agli n stati del sistema). In tali situazioni `e di grande interesse per le applicazioni risolvere il seguente problema: Problema 6.19. Assegnato uno stato iniziale si o, pi` u in generale, una distribuzione di probabilit` a P0 per lo stato iniziale6, calcolare o perlomeno stimare la probabilit` a che l’evoluzione si concluda in un prefissato stato finale sj cio`e lo si raggiunga e vi si rimanga definitivamente (quale che sia la storia con cui si perviene a tale stato). Studiamo il Problema 6.19 solo nel caso di catene assorbenti: come sar` a chiarito dal Teorema 6.23, se la catena `e assorbente allora il problema 6.19 `e significativo solo se lo stato finale sj `e assorbente, infatti, in tal caso la probabilit` a di rimanere indefinitamente in uno stato non assorbente sj risulta nulla. Per risolvere il problema si potrebbero determinare tutte le possibili evoluzioni che, partendo da P0 conducono ad sj , calcolarne le corrispondenti probabilit` a ed infine sommarle. Questa tecnica si rivela in pratica proibitiva. Tuttavia, nei casi in cui assegnato P0 sia possibile mostrare che esiste Prescrivere lo stato iniziale si , i ∈ {1, 2, . . . , n}, coincide con l’assegnazione del2 3T dove l’unica la distribuzione di probabilit` a iniziale P0 = 0 . . . 0 1 0 . . . 0 componente non banale `e quella di posizione i-esima. 6
246
6 Catene di Markov
P∞ = lim Pk k
e si sa calcolare P∞ , il problema posto `e risolto dal valore della componente j-esima di tale P∞ . Esempio 6.20. Se
( M=
1/2 1/2 1/2 1/2
)
allora non vi sono stati assorbenti e la permanenza definitiva nel primo o secondo stato `e un evento con probabilit` a nulla. Vi `e per`o una distribuzione di probabilit` a invariante (vedi Definizione 6.27) che `e strettamente positiva: T P = 1/2 1/2 . Esempio 6.21. Per la catena di Markov ⎡ 1 0 M = ⎣ 0 1/2 0 1/2
con matrice di transizione ⎤ 0 1/2 ⎦ 1/2
il primo stato `e assorbente, ma non vi sono transizioni dal primo stato al secondo o al terzo, n´e viceversa: il corrispondente Problema 6.19 problema `e disaccoppiato. Dunque la catena di Markov non `e assorbente. Studieremo il Problema 6.19 nel caso in cui la catena di Markov `e assorbente, denotando con P la successione di vettori di probabilit` a: Pk+1 = MPk con P0 assegnato, dove M ha ordine n. Premettiamo che, se M `e la matrice di transizione di una catena di Markov assorbente, allora non `e restrittivo supporre che gli stati assorbenti siano i primi m (1 ≤ m < n), eventualmente riordinando gli stati (cio`e con un cambio di coordinate in Rm di tipo permutazione della base, si vedano gli Esercizi 6.6 e 6.7). Dunque, posto h = n − m ≥ 1, abbiamo ) ) ( ( B I Pk Pk = (6.16) M= m Oh,m A Qk dove Im `e la matrice identit` a di ordine m, Oh,m `e la matrice di ordine h×m con tutti gli elementi nulli; infine A (quadrata di ordine h) pu` o essere la matrice nulla Oh , mentre B (di ordine m × h) non pu` o essere nulla perch`e la catena `e assorbente. Esempio 6.22. La catena di Markov con matrice di transizione ⎡ ⎤ 1 0 1/2 1/3 ⎢ 0 1 1/2 2/3 ⎥ ⎥ M=⎢ ⎣0 0 0 0 ⎦ 0 0 0 0 `e assorbente.
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti
247
Il vettore Pk delle probabilit` a pu` o essere decomposto in due vettori Pk e Qk , dove Pk corrisponde alle prime m componenti di Pk (probabilit` a degli stati assorbenti), Qk corrisponde alle ultime h componenti di Pk (probabilit` a degli stati non assorbenti). Teorema 6.23. Sia M la matrice stocastica n × n di una catena di Markov assorbente con m stati assorbenti decomposta come in (6.16). Se si parte da uno stato non assorbente, o pi` u in generale da una distribuzione T di probabilit` a P0 = 0 Q0 , allora esiste la distribuzione di probabilit` a P∞ = T dove P ∞ Q∞ P∞ = lim Pk
Q∞ = lim Qk = 0
k
k
precisamente, posto h = n − m il numero di stati non assorbenti, si ottiene −1 Pk = P0 + B Ih − Ak (Ih − A) Q0 −1
P∞ = P0 + B (Ih − A)
Q0
T P k = P k Ak Q 0 T P∞ = P ∞ 0
T In particolare, a partire da P0 Q0 • se sj `e uno stato non assorbente, la probabilit` a che esso venga raggiunto definitivamente `e nulla; • se sj `e uno stato assorbente, la probabilit` a che esso venga raggiunto definitivamente `e pari alla componente j-esima di P∞ ; • se A = O, la dinamica `e banale: Pk = P0 + BQ0 k ≥ 1, Pk = 0 k ≥ 1. Prova. La catena di Markov `e descritta dalla relazione 1 0 1 0 10 Im B Pk+1 Pk = . Qk+1 Qk O A Si noti che `e corretto operare algebricamente come se Pk+1 , Qk+1 , Im , B, A fossero numeri perch´e si tratta di vettori e matrici le cui dimensioni soddisfano le relazioni richieste per l’effettuazione delle somme e dei prodotti righe per colonne. In particolare, il sistema dinamico associato alla catena di Markov si pu` o disaccoppiare in due sistemi dinamici discreti Pk+1 = Pk + BQk Qk+1 = AQk Dal secondo si ottiene Qk = Ak Q0
∀k ∈ N.
(6.17)
Poich´e i primi m sono tutti gli stati assorbenti della catena di Markov, tutte le colonne di B contengono almeno un termine strettamente positivo, dunque A ≥ O e
248
6 Catene di Markov
i aij < 1 ∀j implicano, per l’Osservazione 5.20, che tutti gli autovalori di A hanno modulo strettamente minore di 1. Allora limk Ak = O e da (6.17) segue7
lim Qk = 0. k
Sostituendo (6.17) nel primo sistema dinamico discreto, otteniamo Pk+1 = Pk + BAk Q0 la cui soluzione `e (verificarlo per induzione) k−1
j A Q0 = P0 + B Ih − Ak (Ih − A)−1 Q0 . Pk = P0 + B j=0
Il fatto che Ih − A sia sempre invertibile segue dal fatto che tutti gli autovalori di A hanno modulo strettamente minore di 1. Passando al limite per k → +∞, si ottiene P∞ = P0 + B (Ih − A)−1 Q0 .
Ricordiamo che P0 = [ P0 Q0 ] `e la distribuzione di probabilit` a iniziale e P0 , Q0 sono rispettivamente le distribuzioni di probabilit` a iniziale per gli stati assorbenti e non assorbenti e che, se si parte da uno stato assorbente sj cio`e P0j = 1, allora vi si rimane indefinitamente. Invece, `e interessante studiare il caso in cui P0 = 0 cio`e partire da stati non assorbenti (ovvero il caso in cui esiste l tale che Ql0 = 1). T
6.3 Passeggiate casuali, duelli e partite di tennis Applichiamo i risultati del paragrafo precedente ad alcuni esempi. Esempio 6.24. Consideriamo un ubriaco che esce da un bar: alla sua sinistra si trova un lago, alla sua destra la propria casa; supponiamo che l’ubriaco non stia mai fermo e che la probabilit` a che faccia un passo verso casa sia 0, 5 mentre la probabilit` a che faccia un passo nella direzione opposta, verso il lago, sia 0, 5. Egli continua a camminare in modo casuale fino a quando o arriva a casa o finisce nel lago!
lago a
b
bar
casa
c
d
Figura 6.3 Passeggiata a caso dell’ubriaco 7
Si noti che passare al limite nella prima equazione, tenendo conto di questo risultato a lim Pk+1 = (limk Qk = 0), anche supponendo che ∃ limk Pk , conduce all’identit` k
a alcuna informazione. lim Pk che non d` k
6.3 Passeggiate casuali, duelli e partite di tennis
249
Al solo scopo di ridurre la dimensione del problema, senza alterarne la sostanza, abbiamo ridotto le distanze in questione: la casa dista un passo dal bar, il lago due. Allora vi sono quattro stati, a, b, c, e d; il vettore che descrive le probabilit` a T di ciascuno stato al tempo k `e Wk = ak bk ck dk , mentre la matrice di transizione e la catena di Markov sono rispettivamente ⎡ ⎤ 1 0, 5 0 0 ⎢ 0 0 0, 5 0 ⎥ ⎥ T=⎢ Wk+1 = TWk . ⎣ 0 0, 5 0 0 ⎦ 0 0 0, 5 1 Si noti l’analogia con il gioco “testa o croce” con moneta equa qualora uno dei giocatori inizi con una somma pari alla posta e l’altro con una somma doppia. Utilizziamo un ragionamento (diverso da quello utilizzato per i lanci della ` utile separare gli stati assorbenti moneta) che si presta a generalizzazioni. E dagli altri scambiando secondo e terzo stato fra loro: A1 = a , A2 = d , B1 = b , B2 = c. Nelle nuove coordinate abbiamo ⎡ ⎤ 1 0 0, 5 0 ⎢ 0 1 0 0, 5 ⎥ ⎥ M=⎢ ⎣ 0 0 0 0, 5 ⎦ 0 0 0, 5 0
Pk+1 = MPk
(6.18)
e, al tempo k, Pk1 = prob. di A1 , Pk2 = prob. di A2 , Pk3 = prob. di B1 , Pk4 = prob. di B2 . La prima equazione 2 Pk+1 = Pk2 + 0, 5Pk3
dice che la probabilit` a di arrivare a casa dopo k + 1 passi `e data dalla somma della probabilit` a di essere a casa dopo k passi e di 0, 5 volte la probabilit` a di essere in b = B1 dopo k passi. Posto ⎡ ⎤ 1 0 0, 5 0 ) ( ⎢ 0 1 0 0, 5 ⎥ I2 B ⎥ = ⎢ M= (6.19) ⎣ 0 0 0 0, 5 ⎦ O A 0 0 0, 5 0 e
( P=
P1 P2
)
( Q=
P3 P4
)
T T P = P Q = P1 P2 P3 P4
riscriviamo a blocchi il s.d.d. di partenza
250
6 Catene di Markov
(
)( ) ( ) I2 B Pk Pk+1 = . Qk+1 Qk OA
Poich´e i calcoli si possono effettuare come se i blocchi fossero numeri, possiamo scrivere
Pk+1 = Pk + BQk Qk+1 = AQk Tutti gli autovalori di A hanno modulo strettamente minore di 1 perch´e si pu` o raggiungere almeno uno stato assorbente da ogni stato non assorbente (il lettore pu` o verificarlo nell’esempio). Dunque: Q k = Ak Q 0
Q∞ = lim Qk = 0. k
Sostituendo nella prima equazione, come nella dimostrazione del Teorema 6.23, otteniamo: (6.20) Pk+1 = Pk + BAk Q0 Segue Pk = P0 + B I2 − Ak (I2 − A)−1 Q0 −1
P∞ = lim Pk = P0 + B (I2 − A) k
Q0 .
a di partire dagli stati Ricordiamo che le componenti di P0 danno le probabilit` assorbenti A1 e A2 . Ma se si parte da un tale stato non lo si lascia pi` u ed il problema diventa banale. Quindi `e interessante studiare i casi in cui si parte da stati non assorbenti. In tali casi, cio`e se P0 = 0, le probabilit` a di finire in uno stato assorbente sono, con riferimento alla notazione (6.19): −1
lim Pk = B (I2 − A) k
(
0, 5 0 B= 0 0, 5
)
Q0
(
1 −0, 5 I2 − A = −0, 5 1
Inoltre, si ricava: −1
(I2 − A)
( =
)
) 4/3 2/3 . 2/3 4/3
Allora, se siamo sicuri che la passeggiata inizia dal bar ... abbiamo T P0 = 0 0 −1
B (I2 − A)
T Q0 = 0 1 ( Q0 =
1 2 3 3
)T
In conclusione, partendo dal bar, la probabilit` a di arrivare a casa `e 2/3 mentre quella di essere “assorbito” dal lago `e 1/3.
6.3 Passeggiate casuali, duelli e partite di tennis
251
Esempio 6.25. Immaginiamo una sequenza da film western in cui si svolga un duello simultaneo tra tre pistoleros A, B, C. Supponiamo che A, buon tiratore, abbia una percentuale di bersagli colpiti del 70%, B meno preciso abbia una percentuale del 50% mentre C decisamente scarso ha una percentuale del 30%. Il duello si svolge a turni successivi: in ciascun turno, ciascuno spara ad uno degli altri due scelto in modo tale da massimizzare le proprie chance di vittoria. Come migliore strategia ciascuno cerca di colpire il migliore dei due avversari rimanenti. Pertanto al primo turno A cerca di colpire B, mentre B e C cercano di colpire A. Se pi` u di uno sopravvive si passa ad un turno successivo. Ci si chiede quale dei tre ha le maggiori possibilit` a di sopravvivere, e pi` u in generale, quali sono le probabilit` a delle varie conclusioni possibili (con uno o nessun vincitore). Il problema presenta analogie interessanti con lo studio dei turni elettorali con pi` u di due candidati (o partiti) ed analizzarlo matematicamente conduce a delle conclusioni sorprendenti. Conviene studiare il caso generale, indicando con a, b e c le probabilit` a di colpire il bersaglio scelto rispettivamente da parte di A, B e C, con i vincoli 0
252
6 Catene di Markov (1-a)(1-b)(1-c)
ABC a(b+(1-b)c)
a(1-b)(1-c) (1-a)(b+(1-b)c)
(1-a)(1-c) (1-a)(1-c)
AC
BC c(1-b)
ac
bc a(1-c)
ac
1
A
c(1-a)
1
C
b(1-c)
1
B
1
O
Figura 6.4 Probabilit` a di transizione nel duello a tre
Analogamente si ottiene: 3 = Pk3 + b (1 − c) Qk2 Pk+1 4 Pk+1 = Pk4 + c (1 − a) Qk1 + c (1 − b) Qk2 + a (b + (1 − b) c) Qk3 1 Qk+1 = (1 − a) (1 − c) Qk1 + a (1 − b) (1 − c) Qk3 2 Qk+1 = (1 − b) (1 − c) Qk2 + (1 − a) (b + (1 − b) c) Qk3 3 Qk+1 = (1 − a) (1 − b) (1 − c) Qk3
Per effettuare i calcoli occorre porre attenzione a valutare la probabilit` a che B o C o entrambi colpiscano A. Questo avviene in due modi: nel primo B colpisce A (e dunque non interessa cosa fa C), nel secondo B sbaglia e C colpisce. Dunque la probabilit` a `e b + (1 − b) c. Si noti che `e molto utile (in questo esempio, ma soprattutto in situazioni pi` u complicate con molti stati) utilizzare un diagramma per stabilire quali sono tutti i percorsi possibili che conducono ad un certo stato finale (vedi Figura 6.4). In pratica, prima si disegna il diagramma dei soli percorsi possibili, poi si calcolano le probabilit` a di ciascuna transizione (matrice M di Figura 6.5).
6.3 Passeggiate casuali, duelli e partite di tennis
⎡ < M=
I4 O4,3
ac a (1 − c) 0 c (1 − a)
bc 0 b (1 − c) c (1 − b)
0 0 0 a (b + (1 − b) c)
253
⎤
⎥ ⎢ ⎥ ⎢ ⎥ ⎢ I ⎢ 4 ⎥ B ⎢ ⎥ =⎢ ⎥ ⎢ ⎥ A ⎢ ⎥ (1 − a) (1 − c) 0 a (1 − b) (1 − c) ⎢ ⎥ ⎣ 0 (1 − b) (1 − c) (1 − a) (b + (1 − b) c) ⎦ O4,3 0 0 (1 − a) (b + (1 − b) c) =
Figura 6.5 Matrice di transizione del duello a tre
Dal Teorema 6.23 sappiamo che det (I3 − A) = 0. Peraltro la verifica diretta di tale propriet` a `e immediata perch´e A `e triangolare superiore e dunque sono tali anche I3 − A e (I3 − A)−1 : det(I3 −A) = [1 − (1 − a) (1 − c)] [1 − (1 − b) (1 − c)] [1 − (1 − a) (1 − b) (1 − c)] e ogni parentesi tonda contiene una quantit` a compresa fra 0 e 1 per l’ipotesi a, b, c ∈ (0, 1); cos`ı i prodotti contenuti in ogni parentesi quadrata forniscono ancora numeri compresi fra 0 e 1 e tale `e la quantit` a in ciascuna parentesi quadrata. Se, ritornando all’esempio, consideriamo i dati a = 0, 7
b = 0, 5
c = 0, 3
otteniamo (`e consigliabile effettuare i conti mediante programmi di calcolo numerico) ⎡ ⎤ 0, 79 0 −0, 245 I3 − A = ⎣ 0 0, 65 −0, 195 ⎦ 0 0 0, 895 ⎤ ⎡ 1, 2658 0 0, 34651 −1 1, 5385 0, 3352 ⎦ (I3 − A) = ⎣ 0 0 0 0, 1173 Utilizzando la formula del Teorema 6.23, a partire dalla situazione iniziale s3 , T cio`e tutti vivi e Q0 = 0 0 1 , si ottiene ⎡ ⎤ ⎡ ⎤ 0, 26582 0, 23078 0, 12305 ⎡ ⎤ 0, 12305 0 ⎢ 0, 62024 ⎢ ⎥ 0 0, 16979 ⎥ −1 ⎥ ⎣ 0 ⎦ = ⎢ 0, 16979 ⎥ . P∞ = B (I3 − A) Q0 = ⎢ ⎣ ⎣ 0, 11732 ⎦ 0 0, 53848 0, 11732 ⎦ 1 0, 11392 0, 23078 0, 58984 0, 58984 Riassumiamo ed interpretiamo i risultati approssimando alla terza cifra decimale.
254
6 Catene di Markov
La probabilit` a che nessuno sopravviva `e 0, 123 , la probabilit` a che A vinca `e 0, 170, la probabilit` a che B vinca `e 0, 117 e la probabilit` a che C vinca `e 0, 589. Il risultato `e meno sorprendente di quanto non possa apparire a prima vista: basta riflettere sul fatto che dopo il primo turno A `e vivo solo nel 35% dei casi e B nel 50% dei casi, mentre C `e sicuramente vivo, anzi C vince al primo turno in 45, 5 casi su 100. Se B non si presenta al duello le cose vanno diversamente: si parte da s1 e si ottiene (M `e la stessa, basta cambiare Q0 scegliendo Q0 = [ 1 0 0 ]T ) ⎡
0, 26582 0, 23078 ⎢ 0, 62024 0 −1 B (I3 − A) Q0 = ⎢ ⎣ 0 0, 53848 0, 11392 0, 23078
⎤ ⎡ ⎤ 0, 26582 0, 12305 ⎡ ⎤ 1 ⎥ ⎢ 0, 16979 ⎥ ⎥ ⎣ 0 ⎦ = ⎢ 0, 62024 ⎥ . ⎦ ⎣ 0 0, 11732 ⎦ 0 0, 11392 0, 58984
In questo caso l’eventualit` a che nessuno sopravviva ha probabilit` a 0, 266, A vince con probabilit` a 0, 620, B non vince perch´e non partecipa8 e C vince con probabilit` a 0, 114. Chiaramente C si augura che B partecipi al duello. Anche nelle competizioni elettorali con turni di ballottaggio successivi si possono creare paradossi in cui candidati deboli si avvantaggiano su candidati pi` u forti per la presenza di candidati di disturbo.9 Esempio 6.26. Consideriamo una partita di tennis fra due giocatori A e B: vince la partita il giocatore che per primo si aggiudica 2 set su tre a disposizione. Ciascun set `e suddiviso in pi` u giochi e per vincere un set uno dei due giocatori deve vincere 6 giochi se nel frattempo l’avversario non ne ha vinti pi` u di 4 (se ci` o non accade, al 5 pari, solitamente si passa al cosiddetto tye break). In ogni gioco (game) la sequenza di punteggi che un giocatore pu` o ottenere prima della vittoria `e 15, 30, 40. Dunque, i primi possibili risultati parziali di un game possono essere i seguenti (ordinati secondo l’ordinamento lessicografico): 0 − 15 0 − 30
0 − 40
15 − 0 15 − 15 15 − 30 15 − 40
30 − 0 30 − 15 30 − 30 30 − 40 40 − 0 40 − 15 40 − 30 Inoltre, se a partire da un punteggio di 40 − 30 oppure 30 − 40 il giocatore in svantaggio vince il punto, il punteggio diventa di “parit` a”: da questa situazione si passa a quella di “vantaggio” per uno dei due giocatori dopodich´e o si torna in parit` a oppure il game termina con la vittoria del giocatore che era in vantaggio. 8
E non perde... Queste situazioni possono essere favorite o scoraggiate a seconda delle normative e protocolli di voto.
9
6.4 Distribuzioni di probabilit` a invarianti
255
-
-
-
-
-
-
-
-
-
-
-
-
Figura 6.6 Grafo dei possibili svolgimenti di un game con le probabilit` a di transizione fra i vari stati. Parit` a indica sia la situazione “40 pari” sia situazioni di parit` a successive.
Un modo di tenere conto del diverso livello dei due giocatori `e quello di attribuire due valori pA e pB = 1 − pA rispettivamente alla probabilit` a di vittoria di un punto in un game da parte di A e di B. Un game `e quindi un sistema i cui stati sono i possibili risultati parziali oltre alla situazione di parit` a e di vittoria di uno dei due giocatori. La transizione da uno stato ad un altro dipende (oltre che dalla quantit` a pA ) solo dallo stato di partenza ma non dagli stati precedenti. I possibili svolgimenti di una partita sono dunque descritti da una catena di Markov. Ci limitiamo a rappresentare mediante un grafo le possibili transizioni in una partita (vedi Figura 6.6). Come la nozione di stato assorbente, anche le definizioni di stato transiente e stato ricorrente che introdurremo nel capitolo seguente (Definizione 7.46) sono assai utili nell’analisi dei possibili esiti di una partita.
6.4 Distribuzioni di probabilit` a invarianti Introduciamo ora una nozione che generalizza quella di stato (o evento) assorbente per descrivere un autovettore (non necessariamente coincidente con uno stato) che corrisponde ad un autovalore uguale all’unit` a, ed enunciamo alcuni risultati sul comportamento asintotico di modelli descritti da catene di Markov finite. Definizione 6.27. Data una catena di Markov finita che opera su uno spazio T di n stati con matrice stocastica M, un vettore P = P 1 P 2 . . . P n si dice
256
6 Catene di Markov
distribuzione di probabilit` a invariante se MP = P,
Pj ≥ 0
e
n
Pj = 1
j=1
Ad esempio, (la certezza di trovarsi in) uno stato assorbente `e una distribuzione di probabilit` a invariante. Come gi`a ricordato, una catena di Markov ad n stati `e un sistema dinamico discreto vettoriale lineare le cui traiettorie (e dati iniziali) sono vincolati ad essere contenuti nell’n-simplesso S di Rn . Da questo punto di vista una distribuzione di probabilit` a invariante `e un equilibrio: l’orbita stazionaria associata `e caratterizzata dal fatto che la probabilit` a di trovare il sistema in un dato stato non dipende dal tempo k. ( ) T 01 Esempio 6.28. Se M = allora gli autovalori sono ±1, e 1/2 1/2 10 `e la distribuzione di probabilit` a invariante (unica); inoltre, se Pk+1 = MPk , T allora 1/2 1/2 `e un equilibrio (unico nel 2-simplesso delle distribuzioni di T probabilit` a su 2 stati), e partendo da P0 = 1 0 , Pk evolve secondo una T traiettoria 2 periodica: P2k = P0 , P2k+1 = 0 1 . Osservazione 6.29. Se una matrice stocastica M ammette un autovettore W > 0 relativo all’autovalore 1, allora W/ j Wj `e una distribuzione di probabilit` a invariante per M. Affrontiamo nell’ordine il problema dell’esistenza, unicit` a e stabilit` a della distribuzione di probabilit` a invariante. Teorema 6.30. (di Markov-Kakutani) Una matrice di transizione su un insieme finito di stati Ω ha sempre almeno una distribuzione di probabilit` a invariante. Prova. L’esistenza di una probabilit` a invariante per M coincide con l’esistenza di punto fisso della funzione continua M : S → S . Fissato V ∈ S, definiamo per ogni k ∈ N\ {0} Vk =
k−1 1 h M V k h=0
Allora Vk ∈ S, ∀k, grazie al Lemma 6.5. Per il teorema di Bolzano-Weierstrass esiste una sottosuccessione Vkl ed esiste W ∈ S tali che lim Vkl = W. l
Ma W `e una distribuzione di probabilit` a invariante perch´e, cancellando i termini uguali nelle due sommatorie,
Vkl − MVkl
6.4 Distribuzioni di probabilit` a invarianti k −1 kl −1 l
h+1 1 h = M V− M V = kl h=0 h=0 1 = V−Mkl V kl
257
passando poi4al limite tenendo conto che kl → +∞, 4 per l → +∞in ambo i membri, VRn ≤ 1 e 4Mkl V4Rn ≤ 1, segue V − Mkl V /kl → 0, dunque W−MW = 0.
Osservazione 6.31. Il Teorema di Markov-Kakutani assicura in ogni caso, anche se n´e M n´e alcuna sua potenza sono strettamente positive, l’esistenza (ma non l’unicit` a) di una distribuzione di probabilit` a invariante (positiva ma non necessariamente strettamente positiva). Osservazione 6.32. Abbiamo illustrato una dimostrazione che non fa riferimento alla teoria delle matrici positive, tuttavia osserviamo che il Teorema di Markov-Kakutani `e una conseguenza immediata del Teorema 5.14 e della Osservazione 6.29, perch`e un autovettore ≥ 0 deve essere anche > 0 . Osservazione 6.33. Una ulteriore prova pi` u diretta, ma meno elementare, del Teorema di Markov-Kakutani `e la seguente. Poich´e S `e un chiuso, limitato e convesso di Rn ed M : S → S `e continua, l’esistenza del punto fisso segue dal Teorema di Brower. Per quanto riguarda l’unicit` a, in generale `e facile costruire esempi con pi` u di una probabilit` a invariante: si pensi al caso di catene con pi` u di uno stato assorbente. Inoltre, se P, Q sono probabilit` a invarianti, allora tP + (1 − t) Q `e una probabilit` a invariante ∀t ∈ [0, 1], dunque le probabilit` a invarianti di M formano un convesso chiuso contenuto nell’n-simplesso (se vi sono n stati). Pertanto, qualora venga meno l’unicit` a, le distribuzioni di probabilit` a invarianti sono infinite, dunque il s.d.d. associato alla catena di Markov presenta infiniti equilibri. Grazie al Teorema 6.23 l’insieme chiuso e convesso di tutte le distribuzioni di probabilit` a invarianti di una catena di Markov assorbente `e un attrattore nel senso della Definizione 3.39 (si noti che essa si adatta senza alcuna modifica al caso di s.d.d. vettoriali). Per una catena di Markov non assorbente, l’insieme delle probabilit` a invarianti non `e attrattivo; si consideri ad esempio la matrice stocastica ⎡ ⎤ 1 0 0 ⎣ 0 0 1⎦ (6.21) 0 1 0 = [ 1 0 0 ]T, P = [ 0 1/2 1/2 ]T ): con 2 distribuzioni di probabilit` a invarianti (P a partire dalla probabilit` a iniziale P0 = [ 1/2 1/2 0 ]T , (6.21) genera la dinamica periodica Pk verificante P2h = [ 1/2 1/2 0 ]T , P2h+1 = [ 1/2 0 1/2]T ; in
258
6 Catene di Markov
tal caso non esiste il limite della seconda e terza colonna delle potenze k-esime di (6.21) per k → +∞. Concludiamo con alcuni risultati riepilogativi che legano il comportamento asintotico e le distribuzioni di probabilit` a invarianti. Teorema 6.34. Data una catena di Markov con n stati e matrice di transizione M = [mij ], se esiste il limite di una colonna di Mk per k → +∞, cio`e ∃j ∈ {1, 2, . . ., n} :
(k)
∀i ∈ {1, 2, . . . , n}
allora il vettore P = invariante.
P1 P2 · · · Pn
T
∃ lim mij = Pi k
(6.22)
`e una distribuzione di probabilit` a
Prova. La (6.22) implica: Pj ≥ 0 j = 1, . . . , n , n
Pi =
i=1
n
i=1
(k)
lim mij = lim k
k
n
(k)
mij = 1
(6.23)
i=1
e (k)
(k+1)
Pi = lim mij = lim mij k
=
n
s=1
Dunque MP=P.
k
(k)
lim mis msj = k
= lim k
n
n
(k)
mis msj =
s=1
mis Ps .
s=1
Esempio 6.35. La matrice stocastica ⎡ ⎤ 1 0 0 M = ⎣ 0 1/2 1/2 ⎦ 0 1/2 1/2 verifica limk Mk = M = Mh per ogni h , inoltre M ha due distribuzioni di probabilit` a invarianti [ 1 0 0 ]T e [ 0 1/2 1/2 ]T che coincidono rispettivamente con la prima e le ultime 2 colonne di limk Mk . Esempio 6.36. La matrice stocastica ⎡ ⎤ 1 0 0 A = ⎣ 0 1/3 2/3 ⎦ 0 2/3 1/3 verifica
⎡ ⎤ k−1 0 0 0 1 1 ⎣ 0 −1 1 ⎦ − Ak = M + 6 3 0 1 −1
k≥1
6.4 Distribuzioni di probabilit` a invarianti
259
e limk Ak = M dove M `e la matrice dell’Esempio 6.35; inoltre M ha due distribuzioni di probabilit` a invarianti [ 1 0 0 ]T e [ 0 1/2 1/2 ]T che coincidono rispettivamente con la prima e le ultime 2 colonne di limk Ak . Sotto determinate condizioni si pu` o dimostrare l’unicit` a della distribuzione di probabilit` a invariante ed una sorta di viceversa del Teorema 6.34, come illustrato dal seguente risultato. Teorema 6.37. Ogni catena di Markov regolare (Definizione 6.8) ad n stati : l’autovettore positivo ha un’unica distribuzione di probabilit` a invariante P (distribuzione di probabilit` a) associato all’autovalore dominante e semplice 1. `e la corSe M `e la matrice stocastica di una catena di Markov regolare e P rispondente distribuzione di probabilit` a invariante, allora tutti gli autovettori sono ortogonali ed autovettori generalizzati di M diversi da (multipli di) P alla distribuzione di probabilit` a uniforme [ 1/n 1/n · · · 1/n ]T che `e l’autovettore dominante (strettamente positivo) di MT ; inoltre per ogni distribuzione di probabilit` a iniziale P0 risulta , lim Mk P0 = P
(6.24)
k
quando k tende a +∞ : in particolare tutte le colonne di Mk convergono a P |P | ··· |P ]. lim Mk = [ P
(6.25)
k
Prova. Le affermazioni della tesi diverse da (6.25) sono una riformulazione dei Teoremi 6.6, 6.10 e della Osservazione 6.7; alternativamente sono una conseguenza immediata del Teorema 5.19 sui s.d.d. vettoriali considerando la restrizione della dinamica generata da M al simplesso S delle distribuzioni di probabilit` a. La (6.25) si prova sostituendo eh (certezza di iniziare nello stato h) a P0 nella (6.24): . colonna h-esima di Mk = Mk eh → P
Il Teorema di Markov-Kakutani garantisce l’esistenza di almeno una distribuzione di probabilit` a invariante in ogni caso. Il Teorema 6.37 fornisce una condizione sufficiente (catena regolare) per l’unicit` a della distribuzione di probabilit` a invariante e assicura che tale distribuzione `e un equilibrio globalmente asintoticamente stabile per il s.d.d. (M, S) descritto dalla catena di Markov regolare nel simplesso S. Che la condizione di regolarit` a della catena non sia necessaria per l’unicit` a `e mostrato dall’Esempio 6.28. Vi sono anche esempi di catene di Markov che presentano cicli o traiettorie periodiche: si veda (6.21).
260
6 Catene di Markov
6.5 Esercizi di riepilogo Esercizio 6.3. Verificare, mediante un calcolo diretto, che la matrice stocastica 0 1 a b M= 0
determinare m23 per ogni k ∈ N . Esercizio 6.5. (Ponte di Wheatstone) Consideriamo il circuito elettrico della Figura 6.8 costituito da 5 interruttori A, B, C , D ed E, che possono trovarsi chiusi con probabilit` a rispettivamente pari a a, b, c, d ed e (dunque la probabilit` a che ciascuno degli interruttori si trovi aperto `e...).
Figura 6.8 Ponte di Wheatstone Supponendo che tutti gli interruttori siano fra loro indipendenti, si calcoli la probabilit` a che nel circuito passi corrente. Tale probabilit` a si dice affidabilit` a del circuito. Esercizio 6.6. Una matrice stocastica T i cui elementi non hanno valori diversi da 0 e 1 e con det T = ±1, si dice matrice di permutazione. Spiegare il motivo di tale nome. Esercizio 6.7. Provare che i cambi di coordinate (nello spazio Rn degli stati) di tipo permutazione trasformano matrici stocastiche in matrici stocastiche. Si osservi che questa propriet` a `e stata implicitamente usata nello studio delle passeggiate a caso e del duello per separare gli stati assorbenti dagli altri.
6.5 Esercizi di riepilogo
261
Esercizio 6.8. Tre macchinari producono rispettivamente r1 , r2 ed r3 pezzi, corrispondenti ad un totale di r = r1 + r2 + r3 pezzi, di cui d1 , d2 e d3 sono difettosi. Si estrae a caso un pezzo fra quelli prodotti e si verifica che `e difettoso. Determinare la probabilit` a che il pezzo estratto sia stato prodotto rispettivamente dalla macchina 1, 2 o 3. Esercizio 6.9. Passeggiate a caso in montagna. Con riferimento all’Esempio 6.24 della passeggiata a caso dell’ubriaco, introduciamo una variante: supponiamo che a causa della pendenza della strada la probabilit` a di fare un passo verso casa sia 0, 3, e quella di fare un passo verso il lago sia 0, 7. Si chiede la probabilit` a di concludere la passeggiata asciutti. Esercizio 6.10. Con riferimento all’Esempio 6.25, partendo da s3 e conservando la validit` a delle restrizioni 0 < c < b < a < 1, vi sono scelte per le probabilit` a a, b, c che rendono A favorito? Esercizio 6.11. Scrivere la matrice di transizione riferita ai possibili andamenti di un game in una partita a tennis ordinando gli stati in ordine lessicografico. Esercizio 6.12. Determinare la probabilit` a che a partire da un punteggio di 0 − 40 il giocatore A riesca a vincere il game. Esercizio 6.13. Mostrare con esempi che una matrice stocastica pu` o avere autovalori complessi (se n ≥ 3). Esercizio 6.14. Consideriamo un set di pallavolo, a partire dalla situazione di punteggio 14 − 15 tra due squadre A e B ed il servizio tocchi ad A. Se p ∈ [0, 1] `e la probabilit` a che A si aggiudichi un singolo palleggio, descrivere con un grafo i possibili stati successivi del set e le relative probabilit` a di transizione; scrivere la matrice di transizione corrispondente; calcolare la probabilit` a che A vinca il set. Esercizio 6.15. Una variante del duello a tre: i partecipanti sparano uno alla volta, iniziando cavallerescamente dai tiratori meno precisi ancora in vita, e si continua ove necessario. Si analizzi l’andamento del duello supponendo A tiratore infallibile B tiratore discreto C tiratore maldestro
a=1 b = 2/3 c = 1/3
e che ciascun duellante adotti la migliore strategia. Si chiede a chi sparer` a il primo colpo C (che inizia la partita)?
7 Matrici positive e grafi
In questo capitolo approfondiamo l’analisi delle propriet` a di matrici positive gi`a incontrate nella Sezione 5.4, introducendo le matrici di permutazione e le matrici irriducibili, studiamo i legami con la teoria dei grafi e delle relative matrici di adiacenza ed illustriamo alcune applicazioni alle reti con l’interpretazione della navigazione su internet come sistema dinamico discreto di tipo catena di Markov. Il risultato centrale del capitolo `e il Teorema di Frobenius che precisa le propriet` a dello spettro delle matrici irriducibili positive; in base a tali propriet` a le matrici irriducibili sono suddivise in due classi: le matrici primitive e le matrici cicliche.
7.1 Matrici irriducibili Per le notazioni relative a matrici e vettori si fa riferimento all’Appendice D e alle nozioni di matrice debolmente positiva, positiva e strettamente positiva della Definizione 5.11. Ci sar`a utile considerare dei cambi di base molto particolari: quelli che riordinano gli elementi di una base di Rn e sono dunque associati in modo naturale alle matrici di permutazione. Definizione 7.1. Si dice matrice di permutazione una matrice quadrata T = [tij ] di soli 0 ed 1 che hanno un solo 1 in ogni riga ed in ogni colonna. Osservazione 7.2. Se T `e una matrice di permutazione, allora anche la sua trasposta TT `e di permutazione ed entrambe sono ortogonali (cio`e T−1 = TT e det T = 1). Una matrice di permutazione T corrisponde in modo naturale alla permutazione τ sui primi n numeri naturali che verifica τ (j) = i se e solo se tij = 1. Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
264
7 Matrici positive e grafi
Il cambio di base (vedi Appendice D) associato a T y = Tx
B = TAT−1 = TATT
opera sulla base canonica {e1 , . . . , en }, sul generico vettore x e sulla generica matrice quadrata A nel modo seguente: • permuta le componenti della base di Rn riordinandole nella sequenza u1 , . . . , un , dove ui = ej se tij = 1; • permuta le componenti di x (se tij = 1 allora yi = xj ); • scambia le righe di A mediante la permutazione τ associata a T ed anche le colonne mediante la stessa permutazione τ. In particolare, gli elementi fuori dalla diagonale principale di A sono riallocati fuori dalla diagonale principale; gli elementi della diagonale principale di A sono comunque riallocati sulla diagonale principale: esplicitamente (senza convenzione di somma sugli indici ripetuti) se tij = 0 allora bii = ajj . Si noti che con il cambio di coordinate associato ad una permutazione gli eventuali elementi nulli non si creano e non si distruggono. Questa propriet` a invece non vale con cambiamenti di coordinate pi` u generali anche se ortogonali, come illustrato dal seguente esempio. Esempio 7.3. Il cambio di coordinate ortogonale (rotazione rigida di π/4 radianti in senso antiorario) associato alla matrice: √ ) (√ 2/2 −√2/2 U= √ 2/2 2/2 T √ T trasforma il vettore x = 1 1 nel vettore y = Ux = 0 2 , e trasforma la matrice ( ) 1 1 A= 1 1 nella matrice B = UAU−1 =
(
) 0 0 . 0 2
Esercizio 7.1. Si verifichi che una matrice di permutazione `e doppiamente stocastica (cio`e sia T sia TT sono stocastiche).
Definizione 7.4. Una matrice A quadrata di ordine n si dice riducibile se n = 1 oppure n > 1 ed esistono un intero r con 0 < r < n ed una matrice di = TATT `e della forma permutazione T tali che la matrice A ( ) B O A= C D con B e D matrici quadrate di ordine rispettivamente r ed n − r, e la matrice O con tutti gli elementi nulli. La matrice A si dice irriducibile se non `e riducibile.
7.1 Matrici irriducibili
265
Osservazione 7.5. Si pu` o facilmente mostrare (vedi Esercizio 7.7) che una matrice A quadrata di ordine n `e riducibile se e solo se esiste una matrice di = TT AT `e della forma permutazione T tale che la matrice A ( ) B C A= O D con B e D matrici quadrate ed O matrice non vuota con tutti gli elementi nulli. Si osservi che, in generale, la matrice nulla O pu` o non essere quadrata. Esempio 7.6. Le seguenti matrici sono riducibili: ( ) ( ) ( ) 1 0 1 0 1 1 ; A2 = ; A3 = ; A1 = 1 1 0 1 0 1
( A4 =
) −1 0 . 0 1
A1 , A2 , A4 sono gi` a nella forma richiesta dalla definizione: si noti che non si esclude che vi possano essere degli zeri nella matrice C della Definizione 7.4. La A3 pu` o essere ricondotta alla A1 mediante la matrice di permutazione ( ) 0 1 . T= 1 0 Esempio 7.7. Le seguenti matrici sono irriducibili: ( ) ( ) ( ) 1 1 0 1 0 1 A5 = ; A6 = ; A7 = ; 1 0 1 1 1 0 Esempio 7.8. Le matrici ⎡ ⎤ 1 1 0 A9 = ⎣ 1 1 1 ⎦ 1 1 1
( A8 =
) 0 1 . −1 0
⎡
A10
⎤ 1 1 1 = ⎣1 1 1⎦ 0 1 1
non sono riducibili, quindi sono irriducibili. Esercizio 7.2. (a) Mostrare con degli esempi che non tutte le matrici di permutazione sono irriducibili. (b) In quali casi una matrice di permutazione `e irriducibile?
Esempi di ( 0 1
matrici di permutazione irriducibili e loro autovalori: ⎤ ⎤ ⎡ ⎡ ) 0 0 1 0 1 0 1 ⎣1 0 0⎦ ⎣0 0 1⎦ 0 0 1 0 1 0 0
λ = ±1 ⎡
0 1 0 ⎢0 0 1 ⎢ ⎣0 0 0 1 0 0 λ = ±1,
λ = e2hπi/3 ⎤
0 0⎥ ⎥ 1⎦ 0 ±i
⎡
h = 0, 1, 2
0 0 1 ⎢0 0 0 ⎢ ⎣1 0 0 0 1 0 λ = ±1,
⎤
0 1⎥ ⎥ 0⎦ 0 ±i
λ = e2hπi/3 ⎡
h = 0, 1, 2
0 0 0 ⎢1 0 0 ⎢ ⎣0 1 0 0 0 1 λ = ±1,
⎤ 1 0 ⎥ ⎥ 0 ⎦ 0 ±i
266
7 Matrici positive e grafi
Esempi di matrici di permutazione riducibili e loro autovalori: ⎡ ⎤ ⎡ ⎤ ( ) 1 0 0 0 0 1 1 0 ⎣0 1 0⎦ ⎣0 1 0⎦ 0 1 1 0 0 0 0 1 λ = 1 doppio
λ = 1, ±i
λ = 1 triplo
⎡
⎤ 1 0 0 ⎣0 0 1⎦ 0 1 0
⎡
⎤ 0 1 0 ⎣1 0 0⎦ 0 0 1
λ = 1, ±i
λ = 1, ±i
⎡
0 ⎢1 ⎢ ⎣0 0
1 0 0 0
0 0 0 1
⎤ 0 0 ⎥ ⎥ 1 ⎦ 0
λ = ±1 doppi
Si noti la propriet` a di invarianza, rispetto a opportune rotazioni, dello spettro nel caso irriducibile (coerentemente con il Teorema 7.13 successivo); questa propriet` a pu` o venir meno nel caso riducibile. Esercizio 7.3. Provare che tutti gli autovalori di una matrice di permutazione T hanno modulo uguale a 1. Pi` u precisamente, essi sono le radici di un polinomio del m kj tipo λ − 1 dove k1 + k2 + · · · + km = n ed n `e l’ordine della matrice T. j=1
Osservazione 7.9. Le matrici A e B dell’Esempio 7.3 mostrano che un cambio di base (anche ortogonale) se non `e associato ad una permutazione della base pu` o trasformare una matrice irriducibile in una riducibile. Dalla Definizione 7.4 seguono alcuni utili criteri: • se una matrice quadrata di ordine n > 1 `e irriducibile allora non pu` o avere n´e una riga n´e una colonna di soli zeri; • se una matrice quadrata di ordine n > 1 `e riducibile allora deve avere almeno n − 1 elementi nulli (vedi Esercizio 7.6). Nonostante l’ultimo criterio enunciato, la presenza di n o pi` u elementi nulli non implica la riducibilit` a: ad esempio `e irriducibile la seguente matrice di ordine 3 ⎡ ⎤ 0 1 0 ⎣1 0 1⎦ . (7.1) 0 1 0 Esercizio 7.4. Dimostrare che se A e B sono matrici quadrate dello stesso ordine, con A > O e irriducibile, B O, allora AB `e strettamente positiva.
Sottolineiamo che nella definizione di irriducibilit` a (Definizione 7.4) non si sono fatte ipotesi sul segno degli elementi; nel seguito ci occuperemo quasi esclusivamente di matrici non negative per l’importante ruolo che svolgono
7.1 Matrici irriducibili
267
nelle applicazioni. Si noti che una matrice strettamente positiva `e irriducibile, mentre il viceversa non `e vero come illustrato nel seguente esercizio. Esercizio 7.5. Verificare che la matrice ⎡ ⎤ 0 1/2 1/3 A = ⎣ 1/4 1/2 1/3 ⎦ 3/4 0 1/3 non `e strettamente positiva ma `e irriducibile (si utilizzi la Definizione 7.4).
Tenuto conto degli effetti delle matrici di permutazione sugli elementi diagonali di una matrice `e chiaro che: • una matrice che ha zeri al pi` u sulla diagonale principale `e irriducibile; • una matrice che fuori dalla diagonale principale ha solo zeri `e riducibile. Sar` a pertanto utile avere criteri per stabilire quando una matrice con alcuni zeri sia sulla diagonale principale sia fuori da essa `e irriducibile. Una prima risposta `e data dal seguente Teorema 7.10, mentre una risposta completa verr` a data dal Teorema 7.28 nel caso di matrici senza condizioni sul segno degli elementi. Teorema 7.10. Se A ≥ O `e irriducibile e di ordine n, allora: n−1
(I + A)
O.
` sufficiente mostrare che Prova. E (I + A)n−1 x 0
∀x > 0.
(7.2)
Poich´e eventuali zeri di z = (I + A) x devono essere anche zeri di x, la (7.2) `e sicuramente verificata se per ogni vettore positivo x > 0 il vettore z = (I + A) x ha meno elementi nulli di quanti ne abbia x. Supponiamo per assurdo che x e z abbiano lo stesso numero di zeri, e quindi, a meno di opportune permutazioni, siano della forma 0 1 0 1 u w x= , z= , u 0, w 0 0 0 con u e w vettori colonna della stessa dimensione. Ponendo 1 0 A11 A12 A= A21 A22 dove l’ordine di A11 `e uguale alla dimensione di u, la relazione z = (I + A) x si riscrive come u + A11 u = w A21 u = 0 , dunque u 0 implica A21 = O contro l’ipotesi che A sia irriducibile.
Dal Teorema precedente segue immediatamente il seguente risultato che si preciser` a nel Teorema 7.28:
268
7 Matrici positive e grafi
Corollario 7.11. Se A > O `e una matrice irriducibile di ordine n, allora per ogni coppia di indici i, j ∈ {1, . . . , n} esiste un intero positivo q = q (i, j), q ≤ n, tale che (q) (7.3) aij > 0. Pi` u precisamente, q soddisfa: q ≤ m−1
se i = j;
q≤m
se i = j,
dove m `e il grado del polinomio minimo di A cio`e del polinomio ψ con coefficiente direttore uguale ad 1 e di grado minimo tale che ψ(A) = O. Prova. Per il Teorema 7.10
n I+ Ak = (I + A)n−1 O . k k=1 n−1
(7.4) (2)
(n−1)
Dall’ultima relazione segue che se i = j i numeri non negativi aij , aij , . . . , aij non possono essere tutti nulli. Inoltre, (I + A)n−1 O ed A > O implicano (2) A (I + A)n−1 O (vedi Esercizio 7.4), cio`e i numeri non negativi aii , aii , . . . , (n) aii non possono essere tutti nulli. Inoltre, se ψ (il polinomio minimo di A) ha grado m strettamente minore del polinomio caratteristico di A, esistono unici i polinomi q ed r tali che (1 + λ)n−1 = q (λ) ψ (λ) + r (λ)
grado di r < m.
Allora da ψ (A) = O segue (I + A)n−1 = q (A) ψ (A) + r (A) = r (A) = =
m−1
k=0
c k Ak = c 0 I +
m−1
c k Ak .
k=1
n−1
Dall’ultima relazione e da (I + A) O, segue che se i = j i numeri non negativi (2) (m−1) non possono essere tutti nulli. Inoltre, r(A) O implica aij , aij , . . . , aij (2)
(m)
A r(A) O (vedi Esercizio 7.4), cio`e i numeri non negativi aii , aii , . . . , aii possono essere tutti nulli.
non
Osservazione 7.12. Per il Teorema 7.10 se A ≥ 0 ed esiste k ∈ N tale che Ak O allora A `e irriducibile. Si noti poi che, nonostante il Corollario 7.11, l’implicazione opposta non vale: ad esempio ( ) 0 1 A= (7.5) 1 0 `e irriducibile, dunque verifica (7.3), ma non esiste alcuna sua potenza strettamente positiva. Infatti: ( )
1 0 q = 1 se i = j A2 = e ; Ak+2 = Ak . 0 1 q = 2 se i = j
7.1 Matrici irriducibili
269
Grazie al concetto di irriducibilit` a, Frobenius negli anni 1909-1912 estese il risultato di Perron del 1907 (che per semplicit` a espositiva nel Capitolo 5 `e chiamato Teorema di Frobenius-Perron, vedi Teoremi 5.12 e 5.13) come segue (per la dimostrazione vedi Gantmacher [5]). Teorema 7.13. (Frobenius) Una matrice quadrata A positiva e irriducibile ammette un autovalore reale positivo λA di molteplicit` a algebrica 1, tale che ogni altro autovalore λ ha modulo non superiore: λA ≥ |λ|. All’autovalore λA corrisponde un unico autovettore (a meno di costanti moltiplicative) strettamente positivo. Inoltre, se A ammette h autovalori di modulo pari a λA allora tali autovalori sono tutti diversi tra loro e sono radici dell’equazione h
λh − (λA ) = 0. In generale, l’insieme degli autovalori (spettro) di A `e invariante per rotazioni del piano complesso di angolo 2π/h. Illustriamo nel seguito alcune importanti conseguenze del Teorema 7.13. Teorema 7.14. Una matrice A positiva e irriducibile non pu` o avere due autovettori positivi linearmente indipendenti. Pi` u precisamente, ogni autovettore (anche generalizzato) di A diverso da VA T `e ortogonale a VA O , autovettore dominante per AT . Prova. Osservato che ogni autovalore di A relativo ad un autovettore positivo deve essere reale positivo, la dimostrazione `e identica a quella del Teorema 5.19 salvo il fatto che si usa il Teorema 7.13 al posto del Teorema 5.12 sia per A che per AT .
Il Teorema 7.13 giustifica l’introduzione della seguente Definizione 7.15. Sia A > O una matrice irriducibile con h autovalori λ1 , λ2 , . . . , λh di massimo modulo: λ1 = |λ2 | = · · · = |λh | . Allora A si dice: • primitiva se h = 1; • ciclica se h > 1. La matrice (7.5) `e irriducibile ma non `e primitiva. Il legame fra la nozione di primitivit` a e quanto visto nel Capitolo 5 `e chiarito dal seguente risultato (per la prova si veda ad esempio [5]). Teorema 7.16. Una matrice A > O `e primitiva se e solo se qualche potenza di A `e strettamente positiva: ∃k ∈ N\ {0} :
Ak O .
270
7 Matrici positive e grafi
Teorema 7.17. Se A `e una matrice primitiva di ordine n, indicato con VA l’autovettore positivo di norma 1 associato all’autovalore dominante λA , scelto un ordinamento decrescente degli autovalori rispetto ai moduli λA = λ1 > |λ2 | ≥ · · · ≥ |λn |, allora: • se λ2 = 0 allora per k → +∞ T Ak = (λA )k VA VA + O k m2 −1 |λ2 |k dove m2 `e la molteplicit` a algebrica di λ2 ; • se λ2 = 0 allora per k ≥ n − 1 T Ak = (λA )k VA VA . Inoltre, ogni soluzione del s.d.d. Xk+1 = AXk verifica −k
(λA )
Xk = cA VA + σ (k)
dove λA `e l’autovalore dominante di A, cA `e il coefficiente del dato iniziale X0 lungo la componente VA rispetto alla base di Jordan di A e σ (k) `e un infinitesimo per k → +∞. Infine, per ogni dato iniziale X0 > 0 la soluzione Xk verifica lim k
Xk VA = . Xk VA
Prova. La dimostrazione `e una conseguenza immediata dei Teoremi 5.18 e 5.19 con le precisazioni del caso relative all’infinitesimo σ (k) deducibili dall’Osservazione 5.9. Esercizio 7.6. Dimostrare che se una matrice quadrata A di ordine n `e riducibile allora deve avere almeno n − 1 elementi nulli. Esercizio 7.7. Dimostrare che una matrice A quadrata di ordine n `e riducibile se e = TT AT `e della solo se esiste una matrice di permutazione T tale che la matrice A forma 0 1 B C A= O D con B e D matrici quadrate. Si noti la diversa posizione della matrice O rispetto alla Definizione 7.4. Esercizio 7.8. Dimostrare che una matrice quadrata A di ordine n `e riducibile se: • •
n = 1 oppure A = O, oppure; per n ≥ 2 l’insieme degli indici {1, 2, . . . , n} pu` o essere separato in due insiemi disgiunti {i1 , i2 , . . . , ir } e {j1 , j2 , . . . , jn−r } con 0 < r < n, tali che aiα jβ = 0
α = 1, . . . , r, β = 1, . . . , n − r .
7.2 Grafi e matrici
271
Esercizio 7.9. Dimostrare che una matrice quadrata A di ordine n `e riducibile se e solo se il corrispondente operatore lineare A : Rn → Rn ha un sottospazio di coordinate invariante di dimensione r, con r < n. Esercizio 7.10. Verificare che la matrice ⎡ ⎤ 1/4 1/2 1/3 A = ⎣ 1/4 1/2 1/3 ⎦ 1/2 0 1/3 `e irriducibile. Esercizio 7.11. Mostrare con degli esempi che la somma di matrici irriducibili pu` o non essere una matrice irriducibile. Mostrare con degli esempi che la somma di matrici riducibili pu` o non essere una matrice riducibile.
7.2 Grafi e matrici Introduciamo ora la definizione formale di grafo e ne analizziamo alcune propriet` a sfruttando le analogie con quelle delle matrici irriducibili, discutendo successivamente l’applicazione ai grafi dei risultati precedentemente esposti. A differenza dei semplici esempi gi`a incontrati nel Capitolo 6, i grafi che compaiono nella modellazione di molti problemi reali (quali ad esempio orari ferroviari, linee aeree, reti di telecomunicazioni, supply chains) hanno dimensioni enormi: la grande quantit` a di nodi e lati ne rende molto difficile o praticamente impossibile una visualizzazione grafica. Per questo motivo `e importante definire e studiare le principali propriet` a strutturali e qualitative dei grafi, interpretandole con strumenti di Algebra Lineare. Definizione 7.18. Un grafo (orientato) G `e una coppia (V, L) ove V = {v1 , . . . , vn } `e un insieme finito di elementi detti nodi (o vertici) mentre L = {l1 , . . . , lm } ⊆ V × V `e un insieme di coppie ordinate di tali nodi, dette lati (o archi). Considerato un lato (vs , vk ) di un grafo G, il nodo vs si dice coda del lato, il nodo vk si dice testa del lato e il lato (vs , vk ) si dice uscente da vs ed entrante in vk . Per definizione, il lato (vs , vk ) `e diverso dal lato (vk , vs ). Si definisce sottografo di un grafo G = (V, L) un grafo G = (V, L) tale che V ⊆ V , L ⊆ L ed L contiene solo coppie di elementi in V. ` consuetudine visualizzare un grafo indicando i nodi mediante punti e i lati E mediante frecce che connettono tali punti (vedi Figura 7.1) con direzione dalla coda alla testa del lato.
272
7 Matrici positive e grafi
Figura 7.1 Esempio di grafo orientato: l’orientamento dei lati ` e dato dall’ordine delle coppie (vs , vk ) nella relazione L
Il grafo di Figura 7.1 ha nodi {1, 2, . . . , 9, 10}. Sono lati, ad esempio, le coppie ordinate (1, 2), (1, 1), (6, 5) e (5, 4) mentre non sono lati le coppie (2, 1), (4, 3), (4, 5) o (6, 9). I lati di tale grafo sono in tutto 14. Definizione 7.19. Dato un grafo orientato G = (V, L) con V = {v1 , . . . , vn } e L = {l1 , . . . , lm }, si dice cammino orientato C (da vi0 a vip ) una sequenza ! di nodi C = v , v , . . . , v tali che vik ∈ V per ogni k = 0, . . . , p, e i0 i1 ip vik−1 , vik ∈ L per ogni k = 1, . . . , p. I nodi vi0 e vip di dicono estremi del cammino C. L’intero p si dice lunghezza del cammino C. ! Un cammino orientato C = vi0 , vi1 , . . . , vip si dice: • semplice se tutti i suoi nodi sono distinti fra loro, cio`e vis = vik
∀s, k = 0, . . . , p : s = k;
• chiuso se i suoi estremi coincidono: vi0 = vip ; ! • ciclo (orientato) se il cammino stesso vi0 , vi1 , . . . , vip `e chiuso ed il ! cammino vi0 , vi1 , . . . , vip−1 `e semplice; • cappio (orientato) se `e un ciclo ridotto ad un solo nodo. Con riferimento al grafo di Figura 7.1, il cammino {1, 2, 9, 8, 3} `e semplice, il cammino {5, 4, 6, 5, 4, 6, 5} `e chiuso ma non `e un ciclo, il cammino {2, 9, 8, 3, 2} `e un ciclo, i cammini {1, 1} e {7, 7} sono cappi. Precisiamo le possibili relazioni fra coppie di nodi. Definizione 7.20. Dato un grafo orientato G = (V, L) si dice che: • un nodo vi ∈ V `e connesso con un nodo vj ∈ V , e scriviamo vi → vj , se k
esiste in G un cammino da vi a vj (useremo la notazione vi → vj quando sia necessario specificare che partendo da vi si arriva in vj in k passi); • un nodo vi ∈ V `e fortemente connesso con un nodo vj ∈ V , e scriviamo vi ↔ vj , se vi → vj e vj → vi .
7.2 Grafi e matrici
273
Un grafo orientato G si dice fortemente connesso se ha un solo nodo oppure se tutti i suoi nodi sono fortemente connessi fra loro. Nel grafo di Figura 7.1 il nodo 2 `e fortemente connesso con il nodo 8, il nodo 9 `e connesso con il nodo 5 (ma non `e vero il viceversa): quindi il grafo non `e fortemente connesso. Dato un grafo orientato G = (V, L), la relazione di connessione forte `e una relazione di equivalenza sull’insieme dei nodi V , che si pu` o quindi partizionare nel senso che esistono classi di equivalenza di nodi V1 , V2 , . . . , Vq tali che q > Vj e Vi ∩ Vj = ∅ se i = j. La definizione che segue caratterizza V = j=1
ciascun grafo indotto in G dai nodi appartenenti ad una classe di equivalenza. Definizione 7.21. Dato un grafo orientato G = (V, L) si dice componente fortemente connessa di G ciascun sottografo di G che sia fortemente connesso e massimale (cio`e non contenuto strettamente in un altro sottografo fortemente connesso). Esempio 7.22. Tutte le componenti fortemente connesse del grafo di Figura 7.1 sono quattro: V1 = {1}, V2 = {2, 9, 8, 3}, V3 = {4, 5, 6, 7} e V4 = {10}. Esercizio 7.12. Dato un grafo orientato G = (V, L), dimostrare che la relazione di connessione forte `e una relazione di equivalenza sull’insieme dei suoi nodi V .
Un ulteriore utilissimo modo di rappresentare un grafo orientato `e fornito dalla nozione di matrice di adiacenza che segue. Definizione 7.23. Si dice matrice di adiacenza di un grafo orientato G = (V, L) di n nodi, la matrice quadrata A = [aij ] di ordine n tale che 1 aij = 1 se (vj , vi ) ∈ L cio`e vj −→ vi . 0 se (vj , vi ) ∈ L Viceversa, se consideriamo una qualsiasi matrice A di ordine n, non negativa (aij ≥ 0 ∀i, j), ad essa si associa in modo naturale il grafo orientato GA = (VA , LA ) con VA = {1, 2, . . . , n} Esempio 7.24. La matrice ⎡ 1 ⎢1 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0
e
LA = {(j, i) ∈ VA × VA : aij > 0} .
di adiacenza del grafo nella Figura 7.1 `e: ⎤ 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0⎥ ⎥ 0 0 0 0 0 0 1 0 0⎥ ⎥ 0 1 0 1 0 1 0 0 0⎥ ⎥ 0 0 0 0 1 0 0 0 0⎥ ⎥ 0 0 1 0 0 0 0 0 0⎥ ⎥ 0 0 0 0 1 1 0 0 0⎥ ⎥ 0 0 0 0 0 0 0 1 0⎥ ⎥ 1 0 0 0 0 0 0 0 0⎦ 0 0 0 0 0 0 0 0 0 . " #
274
7 Matrici positive e grafi
Esercizio 7.13. Data la matrice
⎡
2 ⎢0 ⎢ ⎢0 A=⎢ ⎢0 ⎢ ⎣0 1
1 0 5 0 3 0
0 4 0 0 0 2
1 0 0 3 0 0
0 0 0 0 2 0
⎤ 3 0⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎦ 1
disegnare il grafo associato, individuando tutte le sue eventuali componenti fortemente connesse.
Assegnata una matrice A non negativa, ogni suo elemento non nullo aij > 0 pu` o essere considerato un peso associato al lato del grafo associato GA che congiunge j con i. Pi` u in generale, dato un cammino C = {i0 , i1 , . . . , ip } in GA, con p ≥ 1, diciamo peso del cammino C il prodotto ai1 i0 · ai2 i1 · . . . · aip ip−1 > 0. ' & (k) Se Ak = aij allora si dimostra che per ogni k ≥ 2 (k)
aij =
n s=1
(k−1)
ais asj
=
ai1 i0 · ai2i1 · . . . · aik ik−1
i0 = j, ik = i is ∈ VA , ∀s
(k)
cio`e aij `e la somma dei pesi dei cammini distinti di lunghezza k da j a i. Tale risultato implica immediatamente la seguente conclusione: (k)
aij > 0 se e solo se GA ha un cammino di lunghezza k da j a i. (k)
In particolare, se A `e la matrice di adiacenza di un grafo orientato, allora aij rappresenta esattamente il numero (intero) dei cammini distinti di lunghezza k fra i nodi vj e vi . Teorema 7.25. Un grafo GA `e fortemente connesso se e solo se per ogni i e (k) j esiste k = k (i, j) tale che aij > 0. Precisiamo in termini di grafi la nozione di irriducibilit` a di una matrice quadrata non negativa. Teorema 7.26. Una matrice quadrata non negativa A = [aij ] di ordine n > 1 `e irriducibile se e solo se il grafo GA associato ad A `e fortemente connesso. Prova. Se A `e irriducibile allora per ogni coppia di indici i, j ∈ {1, . . . , n} esiste un (k) o intero positivo k (dipendente da i e j) tale che aij > 0 (vedi Corollario 7.11) e ci` equivale a dire che ogni coppia di nodi j, i in VA `e connessa, ossia il grafo GA `e fortemente connesso.
7.2 Grafi e matrici
275
Per provare il viceversa, dimostriamo che se A `e riducibile allora GA non `e fortemente connesso. Infatti, se A `e riducibile, allora mediante una opportuna permutazione T, pu` o essere trasformata nella matrice E 0 1 B O E = TAT−1 = C D con dim B = r > 0, 0 < r < n. Per ogni i ≤ r < j, sul grafo associato ΓE non esistono cammini di lunghezza 1 da vj a vi . Di conseguenza, per ogni i ≤ r < j, non esistono cammini da vj a vi , cio`e ΓE , che coincide con GE a meno della permutazione associata a T degli indici che etichettano i nodi, non `e fortemente connesso.
Da quanto appena provato segue che una matrice di ordine n > 1 `e riducibile se e solo se il grafo ad essa associato ammette almeno due componenti fortemente connesse. Osservazione 7.27. Il complesso dei Teoremi 7.25 e 7.26 ci dice che una matrice quadrata non negativa A di ordine n > 1 `e irriducibile se e solo se (q)
∀ i, j ∃ q : aij > 0
(7.6)
cio`e vale il viceversa del Corollario 7.11. Grazie alla corrispondenza tra grafi e matrici possiamo ora provare una caratterizzazione delle matrici irriducibili non necessariamente positive (si veda al riguardo anche il Teorema 7.10). Teorema 7.28. Una matrice quadrata A di ordine n > 1 `e irriducibile se e solo se n−1 (I + |A|) O avendo posto |A| = [|aij |]. Prova. A `e irriducibile se e solo se lo `e |A|. Se A `e irriducibile allora lo `e |A| e per il Teorema 7.10 vale (I + |A|)n−1 O. Viceversa, supponiamo che per qualche i = j l’elemento di posto (i, j) di (I + |A|)n−1 sia 0. Dunque, per il Teorema 7.26 il grafo orientato GI+|A| associato ad I + |A| non `e fortemente connesso. Quindi esiste j = i tale che j non `e connesso con i nel grafo orientato GI+|A| e dunque neanche nel grafo G|A| . Per il Teorema 7.26 ed il Corollario 7.11, la matrice |A| `e riducibile e quindi anche A `e riducibile.
Definizione 7.29. Dato un grafo orientato G = (V, L), si dice periodo del nodo vi ∈ V , indicato con d (vi ), il massimo comun divisore delle lunghezze dei cammini chiusi passanti per vi : # " k d (vi ) = MCD k ∈ N\ {0} : vi → vi . Il periodo di un nodo per cui non passa nessun cammino `e posto uguale a 0 per convenzione. Un nodo si dice aperiodico se ha periodo 1.
276
7 Matrici positive e grafi
Si noti che un cappio `e associato ad un nodo aperiodico. Esempio 7.30. Con riferimento al grafo della Figura 7.1, osserviamo che il nodo 1 ha periodo 1, i nodi 2, 3, 8 e 9 hanno periodo 4, i nodi 4, 5, 6 e 7 hanno periodo 3, mentre il nodo 10 ha periodo 0. Lemma 7.31 Dato un grafo orientato G = (V, L) se due suoi nodi appartengono alla stessa componente fortemente connessa allora hanno lo stesso periodo. Prova. Siano vi ∈ V e vj ∈ V due qualsiasi nodi della medesima componente fortemente connessa di G. Basta provare che dt(vj ) divide d(vi ). A tal fine `e sufficiente limitarsi a considerare i cammini γ di lunghezza k da vi a vi che non contengono vj . Per ipotesi, esiste un cammino η di lunghezza h da vj a vj . Se consideriamo la somma di cammini γ + η, allora d(vj ) divide sia h che h + k e dunque divide k.
Il risultato precedente consente di dare la seguente Definizione 7.32. Il periodo di una componente fortemente connessa di un grafo orientato `e il periodo di uno qualsiasi dei nodi che la compongono. Ricordando che le matrici irriducibili non negative sono associate a grafi fortemente connessi vale la seguente Definizione 7.33. Si dice periodo di una matrice (quadrata, non negativa e) irriducibile A, indicato con dA, il periodo d di uno qualsiasi dei nodi di GA . La matrice A si dice: • aperiodica se dA = 1; • periodica se dA > 1. Lemma 7.34 Sia A > 0 una matrice quadrata di ordine n > 1 irriducibile. (kd) Allora per ogni i = 1, . . . , n esiste un intero k0 (i) > 0 tale che aii > 0 per ogni k ≥ k0 (i) , dove d = dA `e il periodo della matrice A. (k) Prova. Denotiamo con H(i) l’insieme k ∈ N\ {0} : aii > 0 . Esso rappresenta l’insieme delle lunghezze dei cammini che partono e arrivano in i nel grafo GA associato ad A. Per definizione, dA `e il massimo comun divisore di H(i); inoltre H(i) `e chiuso rispetto alla somma di cammini, nel senso che per ogni k1 ∈ H(i) e k2 ∈ H(i) si ha (k +k ) (k ) (k ) aii 1 2 ≥ aii 1 aii 2 > 0 ⇒ (k1 + k2 ) ∈ H(i) . Dunque H(i) contiene tutti i multipli positivi del suo MCD eccetto al pi` u un numero finito di questi.
Sappiamo (vedi Definizione 7.15) che una matrice primitiva `e una particolare matrice positiva e irriducibile caratterizzata dall’avere un unico autovalore di massimo modulo che risulta semplice e positivo. Il risultato che segue precisa il legame fra matrici primitive ed irriducibili in termini di periodicit` a.
7.2 Grafi e matrici
277
Teorema 7.35. Sia A > 0 una matrice quadrata di ordine n > 1 irriducibile. Allora • A `e primitiva se e solo se `e aperiodica; • A `e ciclica se e solo se `e periodica. Prova. Sia A primitiva. Poich´e esiste k0 tale che Ak O per ogni k ≥ k0 segue che ogni indice di A `e aperiodico perch´e possiede un cammino di lunghezza k per ogni k ≥ k0 . Viceversa, supponiamo che A sia irriducibile aperiodica. Allora (Teorema 7.25) per (k ) ogni i e j esiste k0 = k0 (i, j) tale che aij 0 > 0 ed esiste (Lemma 7.34) k1 (j) > 0 (k) tale che ajj > 0 per ogni k ≥ k1 (j). Scelto quindi k2 (j) = k0 + k1 (j), per ogni intero k ≥ k2 (j) si ha (k) (k ) (k−k ) aij ≥ aij 0 ajj 0 > 0 . Scelto k3 = maxj {k2 (j)} si ottiene Ak O per ogni k ≥ k3 , che implica A primitiva.
Esempio 7.36. Se si considera il grafo adiacenza ⎡ 0 0 1 0 ⎢ 1 0 0 0 ⎢ ⎢ 0 1 0 0 ⎢ ⎢ 1 0 0 0 ⎢ ⎣ 0 0 0 1 0 0 0 0
orientato associato alla matrice di ⎤ 0 1 0 0⎥ ⎥ 0 0⎥ ⎥ (7.7) 0 0⎥ ⎥ 0 0⎦ 1 0
coerentemente con il Lemma 7.34 si verifica che vi sono tuti periodi interi maggiori o uguali a 6, oltre ai periodi 3 e 4, ma mancano i periodi 1,2 e 5; la matrice (7.7) `e irriducibile e primitiva. Esercizio 7.14. Determinare, quando `e definito, il periodo delle seguenti matrici: 0 1 0 1 0 1 0 1 1 0 0 1 A2 = A3 = . A1 = 1 0 0 1 1 1 ⎡
A4
⎤ 0 1 0 = ⎣ 1 0 1 ⎦ 0 1 0
⎡
A5
⎤ 1 1 1 = ⎣ 1 1 0 ⎦. 1 0 0
Esercizio 7.15. Determinare i periodi delle componenti fortemente connesse del grafo associato alla matrice nell’Esempio 7.13.
Riassumiamo in due tabelle le relazioni fra le numerose definizioni e propriet` a introdotte in questo capitolo, mostrando che le diverse terminologie che sorgono in modo naturale in differenti contesti spesso descrivono propriet` a equivalenti con riferimento ai teoremi del testo. Poich´e, per definizione, tutte le matrici di ordine 1 sono riducibili, consideriamo solo il caso delle matrici di ordine n > 1.
278
7 Matrici positive e grafi
Tabella 7.1 Propriet` a delle matrici: |A| denota la matrice di elementi |aij |
Se A matrice quadrata di ordine n > 1 allora
A irriducibile
⇐⇒
(In + |A|)n−1 O
⇐⇒
(In + |A|) primitiva
Tabella 7.2 Propriet` a delle matrici positive
Se A ≥ 0 matrice quadrata di ordine n > 1 allora
A irriducibile
n−1
⇐⇒
(In + A)
& GA fortemente connesso
O
& ⇐⇒
(k)
∀i,j ∃k (i, j) ∈ N\{0} : aij > 0
⇑ ∃k ∈ N\ {0} : Ak O
⇐⇒
A primitiva
(k)
Legenda: aij denota l’elemento di riga i e colonna j della matrice Ak .
7.3 Ancora sulle Catene di Markov Le nozioni sviluppate in questo capitolo forniscono utili strumenti per l’analisi delle catene di Markov introdotte nel Capitolo 6. Facendo riferimento alla definizione di nodi fortemente connessi di un grafo (Definizione 7.20), quando si studia una catena di Markov con matrice di transizione M `e naturale chiamare stati comunicanti quelli che corrispondono a nodi fortemente connessi nel grafo GM associato a tale catena, come precisato dalla seguente definizione. Definizione 7.37. Sia M = [mij ] la matrice di transizione di una catena di Markov omogenea ad n stati s1 , . . . , sn . Diciamo che:
7.3 Ancora sulle Catene di Markov
279 (k)
• si ` e accessibile dallo stato sj se esiste k ∈ N\ {0} tale che mij > 0 k
(in tal caso scriveremo sj → si o brevemente sj → si ); k
h
• si ed sj sono comunicanti se sj → si e si → sj per k, h opportuni (in tal caso scriveremo si ←→ sj ). Essere stati comunicanti `e una relazione di equivalenza sull’insieme degli n stati {s1 , s2 , . . . , sn } di una catena di Markov, dunque tale insieme pu` o essere partizionato in classi di equivalenza disgiunte, dette classi di stati comunicanti (o pi` u semplicemente classi comunicanti) tali che in ciascuna di esse gli stati sono fra loro comunicanti. Parleremo indifferentemente di classi comunicanti dell’insieme degli stati o della matrice di transizione. Una classe comunicante C `e chiusa se si ∈ C e si → sj implicano sj ∈ C. Uno stato si `e assorbente se {si } `e una classe comunicante chiusa. Esempio 7.38. Per determinare le matrice stocastica ⎡ 1/3 0 ⎢ 2/3 0 ⎢ ⎢ 0 1 M=⎢ ⎢ 0 0 ⎢ ⎣ 0 0 0 0
classi comunicanti corrispondenti alla ⎤ 1/4 0 0 0 0 0 0 0⎥ ⎥ 0 0 0 0⎥ ⎥ 1/4 1/2 0 0 ⎥ ⎥ 1/2 1/2 0 1 ⎦ 0 0 1 0
si pu` o ricorrere al grafo corrispondente, ottenendo le classi {1, 2, 3}, {4} e {5, 6}: solo quest’ultima `e chiusa. Esempio 7.39. La seguente matrice ⎡ 0 1 0 ⎢0 0 1 ⎢ ⎢0 0 0 ⎢ ⎢0 0 0 A=⎢ ⎢1 0 0 ⎢ ⎢0 0 0 ⎢ ⎣0 0 0 0 0 0
stocastica ⎤ 0 0 0 0 0 0 0 0 0 0⎥ ⎥ 1 0 0 0 0⎥ ⎥ 0 1/2 0 0 0 ⎥ ⎥ 0 0 1 0 0⎥ ⎥ 0 0 0 1 0⎥ ⎥ 0 0 0 0 1⎦ 0 1/2 0 0 0
`e irriducibile e primitiva (ha periodo 1 perch´e, dall’esame del grafo associato, vi sono i periodi 4 e 5), ha un’unica classe comunicante. Corrispondenemente il grafo associato GA ha un’unica componente fortemente connessa. Il polinomio 1 1 caratteristico di A `e: λ8 − λ4 − λ3 = λ3 (λ − 1)(λ4 + λ3 + λ2 + λ + 1/2). 2 2 Gli autovalori sono 1, 0, −0, 668809 ± 0, 338851 i , 0, 168809 ± 0, 927891 i , sono tutti semplici salvo 0 che `e triplo e, in accordo con il Teorema di Frobenius hanno tutti modulo minore dell’autovalore dominante che `e 1.
280
7 Matrici positive e grafi
Esempio 7.40. La seguente ⎡ 0 1 0 ⎢0 0 1 ⎢ ⎢0 0 0 ⎢ ⎢0 0 0 ⎢ B=⎢ ⎢1 0 0 ⎢0 0 0 ⎢ ⎢0 0 0 ⎢ ⎣0 0 0 0 0 0
matrice stocastica ⎤ 0 0 0 0 0 0 0 0 0 0 0 0 ⎥ ⎥ 1 0 0 0 0 0 ⎥ ⎥ ( ) 0 1 0 0 0 0 ⎥ ⎥ F1 O 0 0 0 0 0 0 ⎥ = ⎥ O F2 0 0 0 1 0 0 ⎥ ⎥ 0 0 0 0 1 0 ⎥ ⎥ 0 0 0 0 0 1 ⎦ 0 0 1 0 0 0
`e riducibile con due classi comunicanti e chiuse, una (costituita dai primi cinque stati) periodica di periodo 5, l’altra (costituita dagli ultimi quattro stati) periodica di periodo 4. Il corrispondente grafo GB ha due componenti fortemente connesse (quella costituita dai primi 5 nodi e quella costituita dagli ultimi 4). Il polinomio caratteristico di B `e λ5 − 1 λ4 − 1 ; gli autovalori sono tutte le radici quarte e quinte complesse di 1: sono tutti semplici salvo λ = 1 che `e doppio. Si noti la struttura dei blocchi quadrati Fj del tipo forme elementari di Frobenius. ` naturale la seguente definizione. E Definizione 7.41. Una catena di Markov irriducibile `e una catena di Markov la cui matrice di transizione `e irriducibile. Dall’Osservazione 7.27 e il Teorema 7.26 segue che una catena di Markov `e irriducibile se l’insieme degli stati `e costituito da un’unica classe comunicante (che dunque `e chiusa) o, equivalentemente, se per ogni coppia di stati si ed (k) sj esiste k = k (i, j) tale che mij > 0. Si noti che la matrice M dell’Esempio 7.38 `e riducibile. Esempio 7.42. La catena di Markov con matrice di transizione ⎤ ⎡ 1/3 1/2 0 0 ⎢ 2/3 1/2 0 0 ⎥ ⎥ M=⎢ ⎣ 0 0 3/4 1/4 ⎦ 0 0 1/4 3/4 non `e irriducibile, cio`e `e riducibile. Si noti che se si assume come dato iniziale il vettore distribuzione di probabilit` a con 1 in una delle due prime (rispettivamente, ultime) posizioni, la dinamica del sistema si svolger` a esclusivamente fra i primi (rispettivamente, ultimi) due stati. Esercizio 7.16. Dimostrare che ogni matrice di transizione (di dimensione finita) ha almeno una classe comunicante chiusa.
7.3 Ancora sulle Catene di Markov
281
Definizione 7.43. Data una catena di Markov omogenea ad n stati s1 , . . . , (k) sn , uno stato si si dice aperiodico se esiste k0 ∈ N\ {0} tale che mii > 0 per ogni k > k0 . Una catena di Markov si dice catena aperiodica se ogni suo stato `e aperiodico. " # (k) Uno stato si `e quindi aperiodico se e solo se l’insieme k ∈ N\{0} : mii > 0 non ha divisori comuni maggiori di 1. Se una catena di Markov `e aperiodica, allora esiste k ∈ N\ {0} tale che (k) mii > 0 per ogni i. Con la terminologia introdotta possiamo riformulare il Lemma 7.31 ed il Teorema 7.35 come segue. Lemma 7.44 Se M `e irriducibile e ha uno stato aperiodico, allora ogni suo stato `e aperiodico. Teorema 7.45. Sia M la matrice di transizione di una catena di Markov (k) irriducibile e aperiodica. Allora esiste k0 ∈ N\ {0} tale che mij > 0 per ogni k > k0 e per ogni i, j. Se una catena di Markov ha matrice di transizione che soddisfa le ipotesi del Teorema 7.13 (Frobenius) allora l’esistenza, l’unicit` a e la stabilit` a globale della distribuzione di probabilit` a invariante `e garantita solo nel caso h = 1. Definizione 7.46. Data una catena di Markov ad n stati, un suo stato si si dice: • transiente se esiste uno stato sj con sj = si tale che si → sj ma sj → si ; • ricorrente se non `e transiente, cio`e se: si → sj ⇒ sj → si . In parole semplici, uno stato `e ricorrente se il processo prima o poi vi torner` a sicuramente, ossia vi torner` a infinite volte; uno stato `e transiente se il processo pu` o non tornarci pi` u, ossia vi torner` a al pi` u un numero finito di volte. Si noti che per una catena di Markov (con un numero finito di stati): 1. 2. 3. 4.
ogni stato `e in modo esclusivo transiente oppure ricorrente; uno stato assorbente `e un particolare stato ricorrente; se uno stato `e ricorrente allora comunica con se stesso; gli stati non possono essere tutti transienti (perch´e la dinamica deve compiere infiniti passi); 5. uno stato ricorrente che non `e assorbente pu` o comunque essere visitato infine volte in tempi successivi. Per quanto riguarda invece la partizione in classi comunicanti di una catena di Markov, valgono le seguenti conclusioni: 1. gli stati in una classe comunicante o sono tutti transienti o sono tutti ricorrenti; nel primo caso la classe si dice transiente, nel secondo ricorrente;
282
7 Matrici positive e grafi
2. ogni classe comunicante `e chiusa se e solo se `e ricorrente. Una conseguenza rilevante di quanto appena esposto `e il seguente enunciato. Teorema 7.47. Una catena di Markov (con un numero finito di stati) irriducibile ha tutti gli stati ricorrenti. Esempio 7.48. Gli stati ricorrenti dell’Esempio 6.26 sono “vantaggio A”, “vantaggio B” e “parit` a” ombreggiati nella Figura 6.6, mentre tutti gli altri sono transienti. Sempre con riferimento alla Figura 6.6 si noti che gli stati assorbenti sono “vince A” e “vince B”. La matrice di transizione riferita ai possibili andamenti di un game giunto in una situazione di parit` a (ordinando i cinque stati assorbenti o ricorrenti da sinistra a destra come in Figura 6.6) `e ⎡ ⎤ 1 pA 0 0 0 ⎢ 0 0 pA 0 0 ⎥ ⎢ ⎥ ⎢ 0 pB 0 pA 0 ⎥ ⎢ ⎥ ⎣ 0 0 pB 0 0 ⎦ 0 0 0 pB 1 . Riassumendo le considerazioni precedenti, per le probabilit` a invarianti di una catena di Markov, valgono le seguenti conclusioni: T 1. se si `e uno stato transiente e P = P1 P2 · · · Pn `e una distribuzione di probabilit` a invariante per la matrice di transizione M, allora Pi = 0; 2. vi sono q vettori distribuzione di probabilit` a invariante linearmente indipendenti se e solo se la catena ha q classi di stati ricorrenti; 3. una catena ha un unico vettore distribuzione di probabilit` a invariante se e solo se ha un’unica classe di stati ricorrenti e Pi = 0 se si transiente ,
Pi > 0 se si ricorrente ;
4. se una catena `e irriducibile allora esiste un unico vettore distribuzione di probabilit` a invariante e risulta P 0; 5. se una catena `e (irriducibile e) primitiva allora l’unica distribuzione di probabilit` a invariante `e globalmente attrattiva per il s.d.d. associato.
7.4 Algoritmo PageRank: perch´ e un buon motore di ricerca sembra leggere nel pensiero di chi lo interroga Esaminiamo un’applicazione di grande successo delle propriet` a delle matrici c discusse in questo capitolo: l’algoritmo PageRank utilizzato dal motore di c ricerca Google ideato nel 1998 da Sergei Brin e Lawrence Page. Il nome commerciale Google rimanda ad un numero stratosferico (google=10100): il
7.4 Algoritmo PageRank
283
motivo `e che la scala del problema che i motori di ricerca devono affrontare e risolvere `e immensa. Il problema risolto da Google nel rispondere ai milioni di queries quotidiane consiste nel fornire delle risposte ciascuna delle quali deve ordinare miliardi di pagine Web1 . Il requisito essenziale per il successo di tale procedura `e un valido e veloce criterio di ordinamento di tutte le pagine che soddisfano i criteri delle query in oggetto. Una volta ottenuto un metodo efficiente per ordinare le pagine Web in rapporto alla loro significativit` a si pu` o utilizzare lo stesso criterio di ordinamento nella risposta a ciascuna singola query. Il meccanismo esatto del funzionamento di Google non `e pubblicamente noto (ovviamente molti dettagli algoritmici sono segreti tutelati da copyright) ed alcuni aspetti della sua notevole efficienza sono chiariti solo in parte [2],[1],[9], comunque esso si basa su una procedura di ordinamento fra pagine che prescinde dal loro effettivo contenuto ed utilizza la struttura topologica del Web, cio`e il tipo di connessioni esistenti fra le pagine internet. L’idea `e quella di associare ad ogni pagina un indice di significativit` a (authority measure) che dipenda dal numero delle citazioni (hyperlinks o brevemente links) ottenute da altre pagine e dall’indice di significativit` a di queste ultime: tale procedura `e denominata algoritmo PageRank. Descriviamo nel seguito un modo euristico per introdurre e calcolare l’indice di significativit` a, introducendo un modello della navigazione su Internet come processo descritto da una catena di Markov. Un insieme di pagine Web P1 , . . . , Pn pu` o essere rappresentato come un grafo orientato G = (V, L) ove i vertici vi coincidono con le pagine Pi e il lato (vj , vi ) ∈ L se e solo se esiste un link dalla pagina Pj alla pagina Pi . Indichiamo con A = [aij ] la matrice di adiacenza di G = (V, L), quindi
1 se esiste il link da Pj a Pi . aij = 0 se non esiste il link da Pj a Pi Si noti che la somma degli elementi della i-esima riga di A rappresenta il numero delle pagine che hanno un link che conduce a Pi , mentre la somma degli elementi della j-esima colonna di A rappresenta il numero di pagine alle quali si pu` o pervenire partendo da Pj . La dimensione della matrice A `e gigantesca, si pensi che gi`a nel 1997 si stimava la presenza di circa 100 milioni di pagine web, cifra che `e enormemente aumentata nel momento in cui scriviamo e che sar`a aumentata ulteriormente nel momento in cui leggerete questa pagina! L’indice di significativit` a xj ≥ 0 della j-esima pagina Pj deve soddisfare due requisiti: da una parte deve risultare elevato se si riferisce ad una pagina citata da molte altre pagine, dall’altra deve risultare elevato se riferito ad una pagina citata da (eventualmente poche) pagine molto significative. Dunque il mero conteggio dei link che puntano ad una pagina non `e adeguato a rappresentarne l’indice di significativit` a (non soddisfacendo al secondo requisito); pi` u 1
Per il “vocabolario” del Web un utile riferimento `e la pagina www.webopedia.com
284
7 Matrici positive e grafi
adeguato appare definire l’indice di significativit` a xj della pagina Pj in modo tale che esso risulti proporzionale, con costante di proporzionalit` a c uguale per tutte le pagine, alla somma degli indici di significativit` a delle pagine che rinviano a Pj tramite un link. Illustriamo con un esempio quanto introdotto. Esempio 7.49. Date quattro pagine web P1 , P2 , P3 e P4 , supponiamo che la pagina P1 sia citata dalla pagina P2 , la pagina P2 sia citata da P1 e P4 , la pagina P3 sia citata solo da P2 e la pagina P4 sia citata da tutte le altre tre pagine. Gli indici di significativit` a x1 , x2 , x3 e x4 sono soluzioni positive del seguente sistema lineare algebrico: ⎧ x1 = c x2 ⎪ ⎪ ⎨ x2 = c (x1 + x4 ) (7.8) x3 = cx2 ⎪ ⎪ ⎩ x4 = c (x1 + x2 + x3 ) Se A `e la matrice di adiacenza corrispondente al grafo delle connessioni fra T pagine Web ed x = x1 x2 x3 x4 `e il vettore dei livelli di significativit` a delle quattro pagine, in termini vettoriali il problema precedente si riscrive come x = cAx o, essendo c = 0, Ax = λx avendo posto λ = 1/c. Esplicitamente: ⎤ ⎡ 0 1 0 0 ⎢ 1 0 0 1 ⎥ ⎥ (7.9) A = ⎢ ⎣ 0 1 0 0 ⎦ . 1 1 1 0 Risolvendo (7.8) si ottengono i valori: cA = 0, 5651978 , autovalore dominante λA = 1, 769292 , autovettore dominan A = [ 0, 321595 0, 568996 0, 321595 0, 685125 ]T . te R L’ordinamento delle pagine rispetto all’indice di significativit` a ottenuto in tal 4 > R 2 > R 1 = R 3 . modo `e: R L’esempio precedente evidenzia come la ricerca dell’indice di significativit` a per un dato set di pagine web sia riconducibile alla ricerca di un autovalore della matrice di adiacenza del positivo λ con associato autovettore positivo R grafo associato alle pagine Web considerate. Ovviamente data la natura del problema, `e auspicabile che le soluzioni cercate siano uniche, o perlomeno, se non sono uniche, che tutte le soluzioni trovate diano luogo allo stesso ordina j di ciascuna pagina Pj . mento per indice di significativit` a dei rank R Osserviamo che la considerazione della matrice di adiacenza (che assegna un peso pari ad 1 ad ogni pagina in uscita da una data pagina) rischia di sopravvalutare l’indice di significativit` a delle pagine che presentano molti link in entrata da pagine poco rilevanti e/o che sono poco selettive nell’inserire ` quindi opportuno considerare la matrice M = [mij ] i cui elementi i link. E soddisfano
se esiste il link da Pj a Pi 1/Nj mij = (7.10) 0 se non esiste il link da Pj a Pi
7.4 Algoritmo PageRank
285
ove Nj , per j = 1, . . . , n, indica il numero delle pagine alle quali si pu` o pervenire in un passo partendo dalla pagina Pj (ossia Nj `e la somma degli elementi della colonna j-esima della matrice A). Con tale procedura, nel caso dell’Esempio 7.49, alla matrice (7.9) si sostituisce ⎤ 0 1/3 0 0 ⎢ 1/2 0 0 1 ⎥ ⎥ M = ⎢ ⎣ 0 1/3 0 0 ⎦ . 1/2 1/3 1 0 ⎡
(7.11)
Risolvendo Mx = λx si ottiene: cM = 1 , autovalore dominante λM = 1 , autovettore dominante RM = [ 0, 133333 0, 399999 0, 133333 0, 333333 ]T . L’ordinamento delle pagine rispetto agli indici di significativit` a ottenuto in tal modo `e: R2 > R4 > R1 = R3 . Si noti che l’uso meno raffinato della matrice A dava la maggior significativit` a alla pagina P4 che veniva linkata da tutte le altre ma linkava solo verso la P2 ; mentre l’utilizzo pi` u efficace della matrice M attribuisce la maggiore significativit` a alla pagina P2 che `e linkata solo da P1 e P4 ma ha pi` u links in uscita (verso tutte le altre). Se da ogni pagina Web si pu` o pervenire ad almeno un’altra pagina, allora la corrispondente matrice M di elementi costruita come in (7.10) `e stocastica. Di fatto la matrice M `e la matrice di transizione di una catena di Markov che descrive una passeggiata aleatoria fra le pagine Web nell’ipotesi che navigando nel Web ci si muova da una pagina verso le altre a caso, che le transizioni siano equiprobabili e avvengano solo cliccando sui vari link disponibili. In tal caso l’autovalore dominante di M `e λM = 1 e la soluzione del problema di determinare l’indice di significativit` a di tutte le pagine Web equivale alla ri (distribuzione di probabilit` cerca di un unico equilibrio R a invariante) per la = MR, R j ≥ 0, R j = 1. catena di Markov associata: R j Se M fosse (positiva irriducibile e) primitiva allora (per il Teorema 7.17) tale soluzione sarebbe fornita dall’unico autovettore positivo VM normalizzato (riM spetto alla somma delle proprie componenti V 1 = j VjM ) e calcolabile con il metodo delle potenze: questa situazione ideale pu` o descrivere solo un grafo del Web fortemente connesso (vedi Teorema 7.26). Tuttavia `e naturale supporre che (come nell’Esempio 7.49) ogni pagina non sia linkata con s´e stessa, cio`e la matrice M nella diagonale principale abbia tutti gli elementi nulli. Inoltre non `e neppure vero che la matrice di adiacenza di tutto il web abbia una potenza strettamente positiva. Nel caso reale sia i gruppi significativi di pagine Web sia tutta la rete del World Wide Web nel suo complesso non sono fortemente connessi. In particolare si presentano i seguenti problemi:
286
7 Matrici positive e grafi
(p1) assegnata una pagina Pj , non `e detto che da Pj si possa arrivare ad alcuna altra pagina; in tal caso Pj si dice pagina dangling e la j-esima colonna della matrice M `e costituita solo da zeri, dunque M non `e neppure stocastica; il grafo corrispondente GM non `e connesso; (p2) anche se da ogni pagina si pu` o arrivare ad almeno un’altra pagina, non `e detto che da ciascuna pagina si possa arrivare ad una qualsiasi altra pagina: in tal caso la matrice M non `e irriducibile e il grafo corrispondente GM non `e fortemente connesso. Vi sono diversi metodi per rimediare ai problemi (p1),(p2) evidenziati: tutte queste possibilit` a sono basate sul fatto che il transito da una pagina all’altra non avviene solo mediante links gi` a presenti ma anche digitando l’indirizzo delle pagine. Ci limitiamo a citare solo una delle possibilit` a per ciascuno di tali problemi. Per risolvere il problema (p1), una possibilit` a `e quella di ipotizzare che tutte le pagine dangling puntino ad ogni pagina del Web: ci` o equivale a sostituire alle corrispondenti colonne di soli zeri nella matrice M il vettore colonna T 1 1n = 1/n 1/n · · · 1/n , ottenendo cos`ı una matrice stocastica M: n = M + 1 1 n BT M n ove gli elementi del vettore colonna B sono Bj = 1 se Pj `e dangling, Bj = 0 negli altri casi. Si noti che ci` o corrisponde ad ipotizzare una distribuzione di probabilit` a uniforme circa il passaggio ad altre pagine senza utilizzo dei links, ma ipotesi pi` u generali (e personalizzate) possono essere fatte. L’aggiustamento della matrice di adiacenza appena descritto, pur garantendo non ne garantisce la irriducibilit` di lavorare con una matrice stocastica M, a. Per ottenere tale propriet`a (cio`e risolvere il problema (p2)) nel caso generale di tutto il Web, denotando con 1In la matrice quadrata di ordine n con tutti gli nel seguente elementi uguali ad 1, si pu` o perturbare la matrice stocastica M modo: + (1 − d) E G = dM (7.12) 1 1 1n 1Tn = 1In n n ottenendo una matrice di transizione che `e strettamente positiva: G O . che Dunque G `e irriducibile e primitiva; inoltre G `e stocastica perch´e sia M E lo sono. Per il Teorema di Markov-Kakutani G ammette una distribuzione di probabilit` a invariante, per il Teorema di Frobenius-Perron essa `e unica. Denotiamo con R tale distribuzione di probabilit` a invariante: GR = R, R ≥ 0, Rj = 1 . (7.13) d ∈ (0, 1)
E=
j
7.5 Esercizi di riepilogo
287
Tale R, oltre ad essere l’autovettore dominante di G, fornisce l’ordinamento delle sue componenti Rj che pu` o essere utilizzato validamente come alterj della pagina Pj : sottolineiamo che non nativa all’indice di significativit` aR interessa tanto il valore numerico degli Rj quanto il loro ordinamento decrescente ([1]). R `e il vettore cercato dei livelli di significativit` a delle pagine web: la componente Rj `e l’indice di significativit` a della pagina Pj . I Teoremi 6.34, 6.37 e 7.17 assicurano lim Gk P0 = R
per ogni P0 distribuzione di probabilit` a,
k
(7.14)
in particolare tutte le colonne di Gk convergono a R quando k tende a +∞ : lim Gk = [ R | R | · · · | R ] . k
(7.15)
Questi risultati teorici consentono anche di affrontare il vero problema costituito dalle dimensioni delle matrici in gioco (si stima attualmente che siano presenti almeno 9 · 109 pagine). Infatti l’algoritmo di calcolo dell’autovettore principale mediante il metodo delle potenze `e molto veloce: il Teorema (7.17) assicura che la velocit`a `e legata al secondo autovalore di G (circa la stima tramite d del secondo autovalore per la matrice G si veda ([9]). Le (7.14) e (7.15) descrivono l’analisi asintotica del s.d.d. associato alla catena di Markov regolare di matrice stocastica G : Pk+1 = G Pk
P0 distribuzione di probabilit` a.
(7.16)
Per la natura della matrice E il s.d.d. vettoriale omogeneo (7.16) `e equivalente al s.d.d. vettoriale lineare non omogeneo Pk + (1 − d) 1n . Pk+1 = M n
(7.17)
`e molto sparsa, al contrario G ha tutti gli elementi Si noti che la matrice M strettamente positivi: dunque `e assai utile sfruttare l’equivalenza evidenziata ed implementare il metodo delle potenze mediante (7.17) anzich´e (7.16).
7.5 Esercizi di riepilogo Esercizio 7.17. Dire se la matrice stocastica ⎡ ⎤ 0 0 0 1/2 ⎢ 1 0 1/4 0 ⎥ ⎥ M=⎢ ⎣ 0 1 0 1/2 ⎦ 0 0 3/4 0 `e riducibile o irriducibile.
288
7 Matrici positive e grafi
Esercizio 7.18. Nel modello per l’attribuzione dell’indice di significativit` a o il calcolo dell’autovettore R (Sezione 7.4 - Algoritmo PageRank) abbiamo implicitamente supposto che il risultato non dipenda dall’ordinamento (arbitrario) delle pagine, cio` e a di dall’indice j secondo il quale vengono elencate le pagine Pj . Si provi la validit` tale ipotesi. Suggerimento: per mostrare l’indipendenza di R rispetto a una permutazione τ delle pagine baster` a sfruttare l’invarianza degli autovalori ed autovettori rispetto alla trasformazione di G in TGTT dove T `e la matrice di permutazione associata a τ. Esercizio 7.19. Con riferimento all’Esempio 7.49 i gestori della pagina P1 sono insoddisfatti dell’indice di significativit` a attribuito al tale pagina (inferiore a quello attribuito alla pagina P4 ). Nel tentativo di aumentarlo, creano una ulteriore pagina P5 con un link da P5 a P1 ed un link da P1 a P5 . Questa operazione riesce a far aumentare l’indice di significativit` a di P1 oltre quello di P4 ?
8 Soluzioni degli esercizi
8.1 Soluzioni degli esercizi del Capitolo 1 Soluzione 1.1 Se proviamo a tracciare successivamente le varie rette supposte dotate di un orientamento (convenzionale), allora, sulla (k + 1)-esima retta, per costruzione, sono presenti k punti distinti e ordinati p1 , p2 , . . . , pk , intersezioni di tale retta con le rette preesistenti. Tali punti identificano sulla retta k − 1 segmenti e due semirette. Ciascuno di questi k + 1 oggetti geometrici sconnette una ed una sola delle regioni che “attraversa”, per cui
Nk+1 = Nk + k + 1 N0 = 1
1 1 o essere provata per la cui soluzione `e data da Nk = k2 + k + 1. Tale formula pu` 2 2 induzione.
b)
a)
Figura 8.1 a) Se k = 3 allora Nk = 7;
b) (k + 1)-esima retta
Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
290
8 Soluzioni degli esercizi
La tecnica per ottenere la formula `e illustrata nel Capitolo 2. Per rispondere al quesito, basta osservare che conviene effettuare i tagli in modo tale che ogni coppia di tagli si intersechi internamente al cerchio, ma non pi` u di due si intersechino in ciascuno di tali punti. Pertanto il numero massimo `e proprio quello 1 1 fornito dalla formula trovata: Nk = k2 + k + 1. 2 2 Soluzione 1.2 Procediamo per induzione. Si ha: S1 = (1 + r) S0 − R ≥ (1 + r) S0 − rS0 = S0 e quindi la proposizione `e vera per k = 1. Supposta ora vera l’affermazione per un k ≥ 1, otteniamo: perch´ e R≤rS0
Sk+1 = (1 + r) Sk − R ≥ ≥ (1 + r) Sk − rS0 ≥
per l’ipotesi d’induzione
≥ (1 + r) Sk − rSk = = Sk . Concludendo, se R ≤ rS0 , allora Sk+1 ≥ Sk , cio`e il debito non diminuisce al passare del tempo. Soluzione 1.3 La quantit` a Yk+1 `e una proporzione, con coefficiente 1 − pY , della quantit` a Yk . Invece, per ottenere Xk+1 si deve considerare la proporzione (1 − pX ) Xk di materiale presente al tempo precedente che non decade, alla quale va sommato l’apporto pY Yk del primo materiale. In definitiva: Yk+1 = (1 − pY ) Yk Xk+1 = pY Yk + (1 − pX ) Xk Per la soluzione di questo semplice caso si rimanda all’Esercizio 2.17. Per la soluzione in forma chiusa di sistemi di equazioni lineari alle differenze nel caso generale si rimanda al Capitolo 5. Soluzione 1.4 La quota interessi al tempo k + 1, per definizione, `e data da Ik+1 = rDk . Possiamo cos`ı scrivere S Ik+1 − Ik = rDk − rDk−1 = r (Dk − Dk−1 ) = −rC = − r n ossia
S r. n Per determinare l’espressione in forma chiusa di Ik procediamo iterativamente: Ik+1 = Ik −
S S S r = Ik−1 − 2 r = Ik−2 − 3 r = · · · = n n n S n−k+1 S . = I1 − (k − 1) r = rS − (k − 1) r = rS n n n
Ik+1 = Ik −
8.1 Soluzioni degli esercizi del Capitolo 1
291
Soluzione 1.5 La quota interessi al tempo k + 1 `e data da: Ik+1 = rDk = r (Dk−1 − Ck ) = = Ik − rCk =
perch´ e Ck =R−Ik
= (1 + r) Ik − rR . Cos`ı, dall’uguaglianza che esprime la costanza delle rate (Ck+1 + Ik+1 = Ck + Ik ) segue Ck+1 = Ck + (Ik − Ik+1 ) = Ck + rCk = (1 + r) Ck da cui Ck = (1 + r)k−1 C1 = (1 + r)k−1 (R − rS). Soluzione 1.6 L’ammontare Sk+1 presente sul conto dopo k + 1 anni `e dato dall’ammontare Sk dell’anno precedente al quale vanno sommati gli interessi maturati rSk e detratte le spese fisse C: Sk+1 = Sk + rSk − C.
Soluzione 1.7
s = 100 (Cgg /C0 )365/gg − 1 .
Soluzione 1.8 Poich´e per 0 < r < 1 valgono +∞ +∞ +∞
k
1 nkrk (1 − r) = (1 − r) kr = r (1 − r) krk−1 = n k=1 k=1 k=1
x d r = (1 − r) r = dx 1 − x x=r 1−r
m (r) =
e
7 7 1 log 2 d (r) = max k ∈ N : (1 − r)k ≥ = max k ∈ N : k ≤ − = 2 log (1 − r)
log 2 = parte intera di − log (1 − r)
si conclude che m (r) d (r)
⇔
log 2 r parte intera di − . 1−r log (1 − r)
Soluzione 1.9 Sia Yk il numero di operazioni necessarie per riporre k cubi. Se k = 0 ovviamente Y0 = 0, mentre per k = 1 si ha Y1 = 1. Se, invece, si vogliono riporre nella cesta dei giochi k + 2 cubi, si hanno due sole possibilit` a: al primo passo si toglie un cubo, avendo poi Yk+1 differenti modi per portare a termine l’operazione, oppure, sempre al primo passo, se ne tolgono due, restando cos`ı Yk modi per operare. In definitiva: Yk+2 = Yk+1 + Yk . Si osservi che l’equazione ricorsiva coincide con quella dei numeri di Fibonacci (Esempio 1.15).
292
8 Soluzioni degli esercizi
Soluzione 1.10 Si supponga di dover spostare k + 1 dischi. Per poter “liberare” quello di raggio maggiore si pu` o pensare di spostare i restanti dischi sul piolo centrale (vedi Figura 1.6): il numero minimo di mosse necessarie per ottenere tale risultato `e dato da Yk perch´e coincide con il numero minimo di mosse necessarie per spostare i primi k dischi sul piolo di destra; con una sola mossa si pu` o spostare il disco di raggio maggiore dal piolo di sinistra a quello di destra, mentre ci vogliono ancora Yk mosse per spostare dal piolo centrale a quello di destra i restanti dischi. Otteniamo cos`ı: Yk+1 = Yk + 1 + Yk = 2Yk + 1. Osserviamo che tale numero Yk+1 di mosse `e ovviamente sufficiente; che sia il miniu mo segue dal fatto che Yk era minimo per k dischi e lo spostamento del disco pi` grande `e una operazione necessaria per completare lo spostamento della torre. Soluzione 1.11 Se i dischi sono k + 1, con Xk mosse si spostano i primi k dischi sul piolo di destra, poi con una mossa si sposta l’ultimo disco sul piolo di mezzo; a questo punto con altre Xk mosse si spostano i primi k dischi sul piolo di sinistra, con una mossa si sistema sul piolo di destra il disco di raggio maggiore ed infine con Xk mosse si spostano sul piolo di destra i rimanenti dischi. In conclusione: Xk+1 = 3Xk + 2.
2
20 __ 9
Figura 8.2 Modello della ragnatela Soluzione 1.12 Supponiamo di aver diviso ciascun lato del triangolo in k + 1 parti: il numero di triangoli Xk+1 `e dato dal numero dei triangoli Xk che si ottengono considerando, a partire dal vertice, le prime k parti, al quale va aggiunto il numero k + 1 dei triangolini la cui base giace sulla base del triangolo di partenza e i k triangolini che hanno il loro vertice nei punti che suddividono la base: Xk+1 = Xk + k + 1 + k = Xk + 2k + 1.
8.1 Soluzioni degli esercizi del Capitolo 1
293
Soluzione 1.13 Nella Figura 8.2 sono riportate le prime iterazioni del modello della ragnatela ottenute con il metodo grafico. Soluzione 1.14 Equazione di Bessel. Posto y (x) = xh
+∞ n=0
An xn , h ≥ 0 e A0 = 0,
derivando formalmente termine a termine e sostituendo nell’equazione assegnata, si deduce il valore identicamente nullo per la quantit` a seguente: +∞
(n + h)(n + h − 1)An xn+h+
n=0
+∞
(n + h) An xn+h +
n=0
+∞
An xn+h+2−k2
n=0
+∞
An xn+h
n=0
Operando il cambio di indici m = n + 2 nella terza serie e raccogliendo, possiamo scrivere +∞ +∞
2 3 Am−2 xm+h = 0. (m + h)2 − k2 Am xm+h + m=0
m=2
A questo punto, uguagliando i coefficienti dei termini di ugual grado otteniamo ⎧ 2 2 ⎨ h − k A0 = 0 ((h + 1)2 − k2 )A1 = 0 ⎩ ∀m ≥ 2 ((m + h)2 − k2 )Am + Am−2 = 0 Poich´e A0 = 0, dalla prima relazione si ricava che h = k e cos`ı, dalla seconda equazione, segue A1 = 0: dunque tutti i coefficienti di ordine dispari sono nulli mentre quelli di ordine pari sono individuati a partire da A0 dalla relazione A2n = −
A2n−2 4n (n + k)
n ≥ 1.
Osserviamo per completezza che, oltre alla soluzione trovata ed ai suoi multipli, ve ne sono altre definite solo per x = 0. Equazione di Hermite. Con la posizione y (x) =
+∞
An xn , derivando formalmen-
n=0
te termine a termine e sostituendo nell’equazione data, si giunge a +∞
n (n − 1) An xn−2 − 2
n=2
+∞
nAn xn + 2k
n=1
+∞
An xn = 0
n=0
che grazie al cambio di indici m = n − 2 nella prima serie, si riscrive come +∞
(m + 1) (m + 2) Am+2 xm − 2
m=0
ossia
+∞
m=1
+∞
mAm xm + 2k
+∞
Am xm = 0
m=0
[(m + 1) (m + 2) Am+2 + 2 (k − m) Am ] xm = 0.
m=0
Imponendo l’annullamento dei coefficienti dei termini di ogni grado, otteniamo la relazione ricorsiva:
294
8 Soluzioni degli esercizi Am+2 =
2 (m − k) Am (m + 1) (m + 2)
m ∈ N.
Poich´e k `e un intero positivo ogni coefficiente Am con m ≥ k `e nullo, cio`e la soluzione corrispondente a k intero `e un polinomio di grado k − 1. Equazione di Laguerre. Procedendo come nell’esempio precedente, otteniamo +∞
n (n − 1) An xn−1 +
n=2
+∞
nAn xn−1 −
n=1
+∞
nAn xn + k
n=1
+∞
An xn = 0.
n=0
Questa volta dobbiamo “sistemare” gli indici delle prime due serie: +∞
n (n + 1) An+1 xn +
n=1
+∞
(n + 1) An+1 xn −
n=0
+∞
+∞
nAn xn + k
n=1
An xn = 0.
n=0
Non resta che uguagliare i coefficienti dei termini di ugual grado: A1 + kA0 = 0,
An+1 =
n−k An . (n + 1)2
Poich´e k `e un intero positivo ogni coefficiente An con n ≥ k `e nullo, cio`e la soluzione corrispondente a k intero `e un polinomio di grado k − 1. Equazione di Legendre. Con lo stesso metodo: +∞ +∞ +∞
n−1 n+1 nAn x − nAn x + k (k + 1) An xn = 0 n=1
n=1
n=0
calcolando formalmente la derivata +∞
n (n − 1) An xn−2 −
n=2
+∞
n (n + 1) An xn + k (k + 1)
n=1
+∞
An xn = 0.
n=0
Con il cambio di indici n → n + 2 nella prima serie, si ricava +∞
(n + 1) (n + 2) An+2 xn −
n=0
+∞
n (n + 1) An xn + k (k + 1)
n=1
+∞
An xn = 0
n=0
e uguagliando i coefficienti dei termini di ugual grado: An+2 =
n (n + 1) − k (k + 1) An (n + 1) (n + 2)
n ∈ N.
Poich´e k `e un intero positivo ogni coefficiente An con n ≥ k `e nullo, cio`e la soluzione corrispondente atali valori di k `e un polinomio di grado k − 1. L’esplicitazione dei coefficienti nei vari casi `e illustrata nell’Esercizio 2.36. Soluzione 1.15 Utilizziamo Eulero implicito ed il passo di discretizzazione h > 0. Se Yk approssima y (hk), allora
8.1 Soluzioni degli esercizi del Capitolo 1 (1)
(1 − h (k + 1)) Yk+1 = Yk
(2)
ah (Yk+1 )2 + (1 − ah) Yk+1 − Yk = 0
295
Soluzione 1.16 a) Sia Uj,k un’approssimazione di u (js, hk). Allora per approssimare le derivate seconde di una generica funzione f , tra i possibili schemi alle differenze finite, utilizziamo le differenze seconde centrate:
f (ξ + δ) + f (ξ − δ) − 2f (ξ) 1 f (ξ + δ) − f (ξ) f (ξ) − f (ξ − δ) = − f (ξ) = 2 δ2 2δ δ δ si ottiene Uj,k =
s2 h2 (Uj,k+1 + Uj,k−1 ) + (Uj+1,k + Uj−1,k ) . 2 2 +h ) 2 (s + h2 )
2 (s2
1 Si noti che se s = h allora Uj,k = (Uj,k+1 + Uj,k−1 + Uj+1,k + Uj−1,k ), cio`e ogni 4 valore di Uj,k `e la media aritmetica di quattro valori adiacenti per ogni nodo interno, dunque `e compresa tra il massimo ed il minimo tra essi. Ne segue il Principio del massimo discreto per l’equazione di Laplace: se si risolve l’equazione in un aperto limitato con dati al bordo ed una griglia uniforme (s = h) allora maxj,k Uj,k `e assunto al bordo (lo stesso discorso vale per il minimo). In particolare, se il massimo (o il minimo) viene assunto in un nodo interno allora Uj,k `e indipendente da k e j cio`e costante. b) Sia Vj,k un’approssimazione di v (js, kh); utilizzando ancora le differenze centrate, otteniamo: 2 h2 − s2 Vj,k = h2 (Vj+1,k + Vj−1,k ) − s2 (Vj,k+1 + Vj,k−1 ) Soluzione 1.17 La (1.21) implica per sostituzione wτ = wyy + (k − 1) wy − kw w (y, 0) = max (ey − 1, 0) La (1.22) sostituita βu + uτ = α2 u + 2αuy + uyy + (k − 1) (αu + uy ) − ku β = α2 + (k − 1) α − k 0 = 2α + (k − 1) 1 α = − (k − 1) 2 1
⎧ ⎪ ⎨ ut = uyy
1 β = − (k + 1)2 4 1
2
w (y, τ ) = e− 2 (k−1)y− 4 (k+1) u (y, τ ) nel semipiano: − ∞ < y < +∞, τ > 0
⎪ ⎩ u (y, 0) = u0 (y) = max e 12 (k+1)y − e 12 (k−1)y , 0 +∞ 2 1 u0 (s) e−(y−s) /4τ ds Poich´e `e noto u (y, τ ) = √ 2 πτ −∞
si conclude
296
8 Soluzioni degli esercizi v (x, t) = xN (d1 ) − Ee−r(T −t) N (d2 )
dove si `e posto 1 N (d) = √ 2π 2
σ log (x/E) + r + (T − t) 2 √ d1 = σ T −t
d
−∞
e−s
2
/2
ds
σ2 log (x/E) + r − (T − t) 2 √ d2 = . σ T −t
8.2 Soluzioni degli esercizi del Capitolo 2 Soluzione 2.1
Sviluppiamo esplicitamente solo i punti i) e ii).
lim Xk = −∞; (1) Xk = −k, ∀k ∈ N; k k 1 + 3, ∀k ∈ N; lim Xk = 3; (2) Xk = −2 k 3 1 k 1 lim Xk = −∞; (3) Xk = − 4 + , ∀k ∈ N; k 12 3
k 1 1 5 5 − lim Xk = ; + , ∀k ∈ N; (4) Xk = k 2 5 2 2 3 1 lim Xk ; Xk oscilla ed assume solo due (5) Xk = (−1)k + , ∀k ∈ N; k 2 2 valori; 1 5 lim Xk . Il modulo |Xk | diverge a +∞. (5) Xk = − (−3)k + , ∀k ∈ N; k 4 4 Soluzione 2.2 Si pu` o provare per induzione. Alternativamente, costruiamo la soluzione: posto Sk = 1 + 2 + · · · + (k − 1) + k = k n=1 n, possiamo riscrivere i termini della sommatoria come Sk = k + (k − 1) + · · · + 3 + 2 + 1 e sommare le due relazioni: 2Sk = (1 + k) + (2 + k − 1) + · · · + (k − 1 + 2) + (k + 1) = = (k + 1) + (k + 1) + · · · + (k + 1) = k (k + 1) . -. / , k volte
1 − z k+1 ; 1−z quest’ultima relazione pu` o essere provata per induzione oppure osservando che (1 − z) Pk = 1 + z + z 2 + · · · + z k − z + z +2 +z 3 + · · · + z k+1 = 1 − z k+1 .
Soluzione 2.3
Se z = 1, allora Pk = k + 1. Se z = 1, allora Pk =
Dividendo per (1 − z) si ottiene la formula cercata. Soluzione 2.4 A partire dalla (2.3) ricaviamo la seguente tabella:
8.2 Soluzioni degli esercizi del Capitolo 2
297
X1 = aX0 + b X2 = aX1 + b = a (aX0 + b) + b = a2 X0 + b (1 + a) X3 = aX2 + b = a a2 X0 + b (1 + a) = a3 X0 + b 1 + a + a2 ... = ...
Xk = ak X0 + b 1 + a + a2 + · · · + ak−1 Poich´e (vedi l’esercizio precedente) 2
k−1
1 +a +a +···+ a
⎧ k ⎨ 1 − a a = 1 = 1−a ⎩ k a=1
sostituendo il valore di α, si ottengono le formule risolutive del Teorema 2.5. Soluzione 2.5 Con la notazione dell’Esercizio 2.5, se z = 1, allora Qh,k = k + 1. 1 − z k+1 . Se z = 1, allora Qh,k = z h Pk = z h 1−z Soluzione 2.6 Condizione necessaria per la convergenza di una serie `e che il termine generale sia infinitesimo, dunque non si ha convergenza se |z| ≥ 1. Se z ∈ C e |z| < 1, allora la serie converge assolutamente e vale +∞
1 1−z
zk =
k=0
∀z ∈ C : |z| < 1.
Infatti, ricordando l’espressione delle somme parziali (vedi Esercizio 2.3) +∞
k=0
k
z = lim k
Soluzione 2.7 0, 99999 . . . =
k
n=0
+∞ k=1
z
n
= lim k
9 · 10−k =
1 1 − z k+1 = . 1−z 1−z
−k 9 +∞ 9 1 10 = = 1. 10 k=0 10 1 − 1/10
Soluzione 2.8 L’equazione caratteristica λ2 + aλ + b = 0 ammette le due radici √ −a ± a2 − 4b λ1,2 = . 2 Se b = a2 /4, allora la soluzione generale `e Xk = (c1 + c2 k) λ1k con λ1 = −a/2, e, dunque, Xk ha limite finito (uguale a 0) per ogni dato iniziale se e solo se |λ1 | < 1 cio`e se e solo se |a| < 2. Se b = a2 /4, allora la soluzione generale `e Xk = c1 λ1k + c2 λ2k e Xk ammette limite finito per ogni dato iniziale se e solo se |λ1 | < 1 e |λ2 | < 1, cio`e per avere convergenza di tutte le soluzioni: • se b > a2 /4, allora deve valere a2 + 4b − a2 < 4 cio`e b < 1 ; √ • se b < 0 < a2 /4, allora deve valere a2 − 4b < min {2 + a , 2 − a} cio`e
298
8 Soluzioni degli esercizi 2 a <4 ; b > (|a| − 1) √ • se 0 < b < a2 /4, allora deve valere a2 − 4b ± a < 2 cio`e
a2 < 4 . (a − 1) < b
Soluzione 2.9 (1)
Xk = c1 (−1)k + c2 3k , k ∈ N;
(2)
Xk = c1 cos (πk/6) + c2 sin (πk/6) , k ∈ N;
(3)
Xk = c1 + c2 cos (πk/2) + c3 sin (πk/2) , k ∈ N;
(4)
Xk = (c1 + c2 k) (−1)k + c3 (−3)k , k ∈ N;
(5)
Xk = c1 (−1)k + c2 3k − 1/2, k ∈ N;
(6)
Xk = c1 + c2 cos (πk/2) + c3 sin (πk/2) − k/2, k ∈ N .
Soluzione 2.10 α = 2, α `e stabile ed attrattivo; Xk = −3 (−2)−k−1 − 5 (2)−k−1 + 2, k ∈ N . Soluzione 2.11
k
k √ k
−1 − i −1 + i 3 3 2 πk + c2 sin πk c1 cos +c2 = (a) Xk = c1 2 2 2 4 4 √ k (b) α = 0, stabile ed attrattivo (c) Xk = 2/2 (−2 sin (3πk/4)) , k ∈ N . Soluzione 2.12 (a) Xk = c1 (2 − i)k + c2 (2 + i)k + 3, k ∈ N (b)
α = 3, non `e stabile.
Soluzione 2.13
k
k −1 − i −1 + i + c2 −2 = 2 2
√ k 2 3 3 πk + c2 sin πk −2 c1 cos = 2 4 4
(a)
Xk = c 1
(b)
α = −2, stabile ed attrattivo.
Soluzione 2.14 Osserviamo preliminarmente che se P (λ) = 0 `e l’equazione caratteristica associata all’equazione alle differenze considerata, allora: 1 + a1 + a0 = P (1) ;
1 − a1 + a0 = P (−1)
e a0 `e uguale al prodotto delle due radici λ1 e λ2 (eventualmente complesse) di P: a0 = λ1 λ2 . Se valgono le condizioni sui coefficienti, allora si ricava: −a1 < 1 + a0 < 2
⇒
−a1 > −1 − a0 > −2
⇒
a1 <1 2 a1 − > −1. 2 −
8.2 Soluzioni degli esercizi del Capitolo 2
299
Dunque, P (1) > 0 e P (−1) > 0 e l’ascissa del vertice della parabola P (λ) appartiene all’intervallo (−1, 1): se le radici λ1 e λ2 sono reali, necessariamente appartengono all’intervallo (−1, 1). Se le radici sono complesse, poich´e λ2 = λ1 , si ottiene: 1 > a0 = λ1 λ2 = λ1 λ1 = |λ1 |2 da cui |λ1 | = |λ2 | < 1. Viceversa, se α = 0 `e attrattivo, allora le radici λ1 e λ2 sono in modulo minori di 1 e il loro prodotto `e in modulo minore di 1. Se λ1 e λ2 sono reali, allora λ1 λ2 = a0 < 1 e necessariamente P (−1) > 0 e P (1) > 0. Se λ1 e λ2 sono complesse coniugate, allora 1 > |λ1 λ2 | = λ1 λ1 = |λ1 |2 = a0 e ovviamente, P (−1) > 0, P (1) > 0. Soluzione 2.15 Come di consueto, se `e noto il risultato, o se si vuole provare a verificare una congettura circa il risultato, si effettua una verifica per induzione. Tuttavia utilizziamo una tecnica che `e indipendente dalla conoscenza del risultato. k n2 , possiamo scrivere: Posto Sk = n=1
Sk+1 − Sk = (k + 1)2 S0 = 0
La soluzione generale T del problema omogeneno associato Tk+1 − Tk = 0 `e data dalle successioni costanti. Cerchiamo una soluzione particolare X del problema non omogeneo di tipo polinomio di terzo grado (perch´e il membro destro `e polinomio di secondo grado, e la costante risolve il problema omogeneo): Xk = ak3 + bk2 + ck. Sostituendo nell’equazione di partenza, si ottiene: a (k + 1)3 + b (k + 1)2 + c (k + 1) = ak3 + bk2 + ck + k2 + 2k + 1 (3a − 1) k2 + (3a + 2b − 2) k + (a + b + c − 1) = 0 a = 1/3
b = 1/2
c = 1/6 .
La soluzione generale `e Sk = d + Xk = d +
1 3 1 2 1 k + k + k 3 2 6
k∈N
e dalla condizione iniziale S0 = 0 si deduce il valore della costante (d = 0), da cui: Sk =
Soluzione 2.16 Sk =
1 k (2k + 1) (k + 1) 6
k ∈ N.
1 2 k (k + 1)2 . 4
Soluzione 2.17 Con riferimento alla soluzione dell’Esercizio 1.3, l’equazione in Y `e disaccoppiata ed ha soluzione Yk = (1 − pY )k Y0 . Sostituendo nell’altra equazione otteniamo l’equazione lineare, non omogenea, del primo ordine:
300
8 Soluzioni degli esercizi Xk+1 = (1 − pX ) Xk + pY (1 − pY )k Y0 .
La soluzione generale dell’equazione omogenea associata `e c (1 − pX )k . Utilizzando la Tabella 2.1 per la ricerca di soluzioni particolari,
si conclude che: pY pY Y0 (1 − pX )k + Y0 (1 − pY )k • se pX = pY , allora Xk = X0 − pX − pY pX − pY k ∈ N; • se pX = pY = 1, allora cercando soluzioni particolari del tipo ak (1 − pX )k , si ottiene Xk = X0 (1 − pX )k +
pX Y0 k (1 − pX )k 1 − pX
k ∈ N;
• se pX = pY = 1, allora Xk = Yk = 0, ∀k > 1. Soluzione 2.18 1 (1) Xk = c1 (−1)k + c23k + (−3)k , k ∈ N; 12 √ π π 18 − 10 3 (2) Xk = c1 cos k + c2 sin k −k+ , k ∈ N; 6 6 3 π π π 1 π 1 k + c3 sin k + sin k + cos k , (3) Xk = c1 + c2 cos 2
2 4 2 4 2 1 k ∈ N. (4) Xk = c1 + c2 k + k2 (−1)k + c3 (−3)k , 4
k ∈ N;
Soluzione 2.19 Impieghiamo la Z-trasformata. Posto Z {X} = x (z), dalla Tabella in Appendice G ricaviamo z (z − 1)2 Z {Xk+1 } = z (x (z) − X0 ) = zx (z) Z {k} =
Z {Xk+2 } = z 2 x (z) − z 2X0 − zX1 = z 2 x (z) − z. Sostituendo nell’equazione 2 z − z − 2 x (z) = si ottiene x (z) = Cos`ı Z
Z
−1
−1
z +z (z − 1)2
z z . 2 + (z − 2) (z + 1) (z − 2) (z + 1) (z − 1)
z (z − 2) (z + 1)
7 =Z
z (z − 2) (z + 1) (z − 1)2
−1
7 1/3 1 k 1/3 − = 2 − (−1)k z z−2 z+1 3
7 = Res (f, 2) + Res (f, −1) + Res (f, 1) = 1 k 2 − 3 1 = 2k − 3
=
1 d zk = (−1)k + 12 dz (z − 2) (z + 1) z=1 1 k 1 (−1)k − − . 12 2 4
8.2 Soluzioni degli esercizi del Capitolo 2
301
In definitiva: Xk =
2k+1 k 5 1 1 k+3 2 + 5 (−1)k+1 − 6k − 3 − (−1)k − − = 3 12 2 4 12
k ∈ N.
Soluzione 2.20 Impiegando la Z-trasformata, posto x (z) = Z {X}, trasformando l’equazione 2 ⇒ z − 5z + 6 x (z) = 1 z 2 x (z) − 5zx (z) + 6x (z) = 1 si ricava x (z) = Z {X} =
1 . (z − 2) (z − 3)
Cos`ı: X0 = Res (g0 , z = 0) + Res (g0 , z = 2) + Res (g0 , z = 3) =
1 1 1 − + =0 6 2 3 k ≥ 1.
Xk = Res (gk , z = 2) + Res (gk , z = 3) = 3k−1 − 2k−1 7 1 pu` o essere calcolata mediante la convoluAlternativamente Z −1 (z − 2) (z − 3) zione discreta: 7 7 7 1 1 1 Z −1 = Z −1 ∗ Z −1 =Y ∗Z (z − 2) (z − 3) z−2 z−3 avendo posto
Yk = 2k−1 Y0 = 0
∀k ≥ 1
Zk = 3k−1 Z0 = 0
∀k ≥ 1
Si ricava X0 = Y0 Z0 = 0 e Xk =
k
j=0
Yn−j Zj =
k−1
j=1
3j−1 2n−j−1 =
3k−1 − 2k−1 = 3k−1 − 2k−1 3−2
∀k ≥ 1
avendo impiegato nell’ultima uguaglianza l’identit` a m−1 m m m−2 a − b = (a − b) a +a b + · · · + abm−2 + bm−1 . Soluzione 2.21 Prendendo la Z-trasformata di entrambi i membri dell’equazione assegnata, otteniamo: 3 zx (z) − z − 2x (z) = 4 z e, risolvendo in x, x (z) =
3 z z z + 4 = + 3z −5 . z−2 z (z − 2) z−2 z−2
Calcolando l’antitrasformata di tale espressione mediante la Tabella in Appendice G si deduce
302
8 Soluzioni degli esercizi Xk = Z −1 {x} k = 2k + 3 · 2k−5 Uk+5 =
0≤k≤4 2k 2k + 3 · 2k−5 k ≥ 5
Soluzione 2.22 Si tratta di un’equazione di tipo Volterra. Sostituendo k al posto di k + 1 nell’espressione di Xk e dividendo per 2, otteniamo Xk+1 = 1 + 16
k
(k − s) Xs = 1 + 16 k ∗ Xk .
s=0
Applicando la Z-trasformata ad entrambi i membri, si ricava z z x (z) + 16 z−1 (z − 1)2
z (z − 1) 1 1 1 z 1 z x (z) = =z + = + (z − 5) (z + 3) 2 (z − 5) 2 (z + 3) 2z−5 2 z+3 1 1 e dunque Xk = 5k + (−3)k . 2 2 zx (z) − z =
Soluzione 2.23 Calcoliamo prima Z {Y }: sia |z| < 1, allora Z {Y } = +∞
k=0
k (k + 1) (k + 2) = (−z)3 zk
d dz
−3!z 3 per (z − 1)4
3 3 +∞ −z 3 1 1 d 3 = 3! = (−z) . zk dz 1−z (z − 1)4 k=0
Dalla identit` a k3 = k (k + 1) (k + 2) − 3k2 − 2k e dalle Z {k} =
% & z (z + 1) Z k2 = (z − 1)3
z (z − 1)2
otteniamo per linearit` a % & Z {X} = Z {Y } − 3Z k2 − 2Z {k} = =
z (z + 1) z −6z 3 −3 −2 = (z − 1)4 (z − 1)3 (z − 1)2
−11z 3 + 4z 2 + z . (z − 1)4
Soluzione 2.24 Integrando per parti, per ogni b, b > 0, e per ogni k ∈ N, si ha: b b b $b # e−x xk dx = −e−x xk + k e−x xk−1 dx = −e−b bk + k e−x xk−1 dx . 0
0
0
Passando al limite per b → +∞, si deduce Ik = kIk−1 I0 = 1 la cui soluzione esplicita `e Ik = (
k s=1
s)I0 = k!
0
8.2 Soluzioni degli esercizi del Capitolo 2
303
Soluzione 2.25 (1)
X1 = 0 · X0 = 0 e dunque Xk = 0 per ogni k (per ogni dato iniziale X0 );
(2)
Xk =
k−1 3j + 1 4 1 3k − 2 3k − 5 ··· X0 = X0 ; 3k + 4 3k + 1 11 7 j=0 3j + 7
(3)
Xk = e
3(k−1)
3(k−1) 3(k−2)
Xk−1 = e e
3 = X0 exp k (k − 1) ; 2
3 0
. . . e e X0 = X0 exp
3
k−1
j
(4)
Xk = e
cos 2(k−1) cos 2(k−2)
e
...e
=
j=0
cos 2 cos 0
e
X0 = X0 exp
k−1
cos 2j
.
j=0
Soluzione 2.26 Si ha x 1 ·(1 − x) cio`e x2 + x − 1 = 0 che ammette le due · x =√ soluzioni distinte x1,2 = −1 ± 5 /2: di esse `e accettabile solo quella positiva. La √ 5 − 1 /2. lunghezza della sezione aurea di un segmento misura Soluzione 2.27 (1) Xk risolve un problema del tipo (2.28) con a = c= √0 e b = 5 − 1 /2. d = 1. Operiamo una sostituzione come in (2.30), scegliendo α = x = √
−1 5−1 , la (2.32) si scrive come Posto Yk = Xk − 2 √ 5−1 √ +1 1 2 5+1 2 √ √ Yk + √ Yk+1 = Yk + √ = 1− 5 5−1 1− 5 5−1 2 2 e dal Teorema 2.5, si ricava Yk =
√ k
1+ 5 1 1 √ X0 − √ +√ 5 1− 5 5
e dunque
−1 √ √ k
1 1 5−1 1+ 5 √ X0 − √ + +√ . 2 5 1− 5 5 √ √ 1 + 5 k 5−1 √ = +∞ segue che lim Xk = = x. Da lim k k 2 1− 5 Xk =
(2)
Soluzione 2.28 Ricaviamo Xk+1 in funzione di Xk : Xk+1 = (4Xk + 9) / (Xk + 2). Zk+1 − 2, l’equazione data si riscrive come Se si pone Xk = Zk Zk+2 + 2Zk+1 + Zk = 0 che ha soluzione generale Zk = c1 (−1)k + c2 k (−1)k . Di conseguenza, le soluzioni dell’equazione di partenza sono, posto c3 = c2 /c1 ,
304
8 Soluzioni degli esercizi
−3 − c3 (3k + 1) Xk = 1 + c3 k con c3 costante arbitraria; si noti che a tale rappresentazione va aggiunta la soluzione k+1 − 2 corrispondente al caso c1 = 0. Xk = − k Si `e risolto un caso particolare di equazione di Riccati: assegnate le successioni P , Q, ed R, determinare X verificante la relazione Xk+1 Xk + Pk Xk+1 + Qk Xk + Rk = 0 che, mediante il cambio di variabili Xk = lineare in Z:
Zk+1 − Pk , si trasforma in una equazione Zk
Zk+2 + (Qk − Pk+1 ) Zk+1 + (Rk − Pk Qk ) Zk = 0 . Soluzione 2.29 (a)
Xk = 2k − 1;
(b)
Xk = 3k − 1.
Soluzione 2.30 Xk = 3−k (λ + 3) − 3, k ∈ N. Quindi, se k → +∞, Xk → −3, qualunque sia il valore di λ. Graficamente si ha
Figura 8.3 Soluzione dell’Esercizio 2.30 Soluzione 2.31 Xk = (−1)k (λ − 1, 5) + 1, 5 k ∈ N. Quindi, se k → +∞, il limite di Xk non esiste a meno che sia λ = 1, 5 ; in tal caso la soluzione `e costante (Xk = 1, 5 ∀k), altrimenti la soluzione `e 2 periodica. Se λ = 0, 5 allora graficamente si ha
Figura 8.4 Soluzione dell’Esercizio 2.31
8.2 Soluzioni degli esercizi del Capitolo 2
305
Soluzione 2.32 1) 2) 3) 4)
π π k + c3 sin k , ∀k ∈ N; 3 3 π π k + c4 sin k , ∀k ∈ N; Xk = c1 + c2 (−1)k + c3 cos 2 2
π π 3π 3π k + c2 sin k + c3 cos k + c4 sin k , Xk = c1 cos 4 4 4 4 π π k k Xk = 2 (c1 + c2 k) cos k + 2 (c3 + c4 k) sin k , ∀k ∈ N. 2 2 Xk = c1 (−1)k + c2 cos
∀k ∈ N;
Soluzione 2.33 L’equazione caratteristica λ2 −λ−2 = 0 ammette le radici semplici λ = −1 e λ = 2. Pertanto la soluzione generale del problema omogeneno `e data da Xk = c1 2k + c2 (−1)k
k ∈ N.
Cerchiamo ora una soluzione particolare dell’equazione non omogenea del tipo X k = ak + b. Sostituendo nell’equazione assegnata, si ottiene: a (k + 2) + b − a (k + 1) − b − 2ak − 2b = k . Uguagliando i coefficienti dei termini in k di ugual grado, si ricava il sistema −2a = 1 2a + b − a − b − 2b = 0 1 1 le cui soluzioni sono a = −1/2 e b = −1/4. Quindi X k = − k − e 2 4 Xk = c1 2k + c2 (−1)k −
1 1 k− 2 4
k ∈ N.
Infine, imponendo i dati iniziali nella soluzione generale appena scritta, si deducono i valori c1 = 2/3 e c2 = −5/12. La soluzione richiesta `e cos`ı: Xk =
1 1 k+1 5 1 2 (−1)k − k − − 3 12 2 4
k ∈ N.
Soluzione 2.34 Utilizziamo la Z-trasformata. Posto x (z) = Z {X}, trasformiamo l’equazione 2 z − 5z + 6 x (z) = 1 x (z) = Xk = res
1 (z − 3) (z − 2)
z k−1 z k+1 , 0 +res , 3 = −2k−1 +3k−1 (z − 2) (z − 3) (z − 2) (z − 3)
k ≥ 1.
Si noti che
1 1 1 X0 = res , 0 + res , 2 + res ,3 = z (z − 2) (z − 3) z (z − 2) (z − 3) z (z − 2) (z − 3) 1 1 1 = − − = 0. 6 2 3
306
8 Soluzioni degli esercizi
Alternativamente, da 1 1 1 = − (z − 3) (z − 2) z−3 z−2 e da Z −1 si ricava x (z) =
Z −1
1 z−a
1 1 − z−3 z−2
7
= τ1 ak
7
= k
0 se k = 0 3k−1 − 2k−1 se k ≥ 1
Soluzione 2.35 Nel caso particolare k = a ed s = a + b si risolve anche il problema dell’Esempio 1.17. Inoltre, osserviamo che le possibili storie diverse di una rovina sono infinite e dunque `e poco pratico calcolarne le corrispondenti probabilit` a e poi sommarle. Sia q = 1 − p. La probabilit` a Rk+1 di rovina iniziando il gioco con k + 1 monete pu` o essere vista come somma delle probabilit` a di vittoria al primo turno seguita da rovina e della probabilit` a di sconfitta al primo turno seguita da rovina: Rk+1 = pRk+2 + qRk che per p = 0 si riscrive come Rk+2 =
1 q Rk+1 − Rk . p p
L’equazione caratteristica 1 q λ2 − λ + = 0 p p ammette le radici λ1 = 1 e λ2 = q/p. Posto r = q/p • se p = q, allora Rk = c1 + c2rk e tenendo conto che R0 = 1 e Rs = 0, si ottiene
Rk =
rk − rs 1 − rs
se p =
1 2
• se p = q = 1/2, allora Rk = c1 + c2 k e tenendo conto che R0 = 1 e Rs = 0, si ottiene Rk =
s−k s
se p =
1 2
Ad esempio, p = 0, 48, k = 10 , s = 20, rientra nel caso p = 1/2 e mostra come, anche per p di poco minore di 0, 5 risulta R10 > 0, 5 (R10 = 0, 690066). Dunque, in tale caso, `e molto pi` u probabile rovinarsi che conservare e/o aumentare il capitale. Se si ripetono i calcoli con k = 100 e s = 200, il risultato ha una evidenza ancora pi` u drammatica: R100 > 0, 999.
8.2 Soluzioni degli esercizi del Capitolo 2
307
L’esempio p = 0, 5 , k = 10, s = 20, rientra nel caso p = 1/2: si ottiene Rk = 0, 5. La situazione `e molto migliore della precedente; anche se `e possibile rovinarsi in un caso su due! Si noti che anche p = 0, 5, k = 100, s = 200 conduce a Rk = 0, 5. Dunque, `e meglio non scommettere ripetutamente quando le probabilit` a sono anche leggermente contrarie. Se si `e obbligati a scommettere avendo le probabilit` a avverse (p < 1/2), allora il miglior modo per sperare di raddoppiare il capitale ` e scommettere tutto subito! Riassumendo, se si vuole raddoppiare il capitale (s = 2k), si hanno tre casi: • se p < q, allora r > 1 e Rk =
rk − 1 1; − r−k
rk
1 , ∀k; 2
• se p = q, allora r = 1 e Rk = • se p > q, allora r < 1 e Rk =
rk − 1 0. − r−k
rk
Osserviamo che la funzione k → Rk non descrive una storia di scommesse successive, ma corrisponde alla dipendenza dalla somma iniziale k (0 ≤ k ≤ s) della probabilit` a Rk di rovinarsi in alternativa al raggiungimento della somma s. Soluzione 2.36 Con le notazioni dell’Esercizio 1.14, grazie al Teorema 2.56: A2n−2 Bessel: I coefficienti di indice dispari sono nulli. Inoltre, da A2n = − 4n (n + k) segue (−1)n k! A0 A2n = n! (n + k)!22n Hermite: Posto m!! = m (m − 2) (m − 4) . . . , da An+2 = An = 0 se e solo se n < k, e si ottiene A2n = (−1)n
2n (k − 2n)!! A0 (2n)!
A2n+1 = (−1)n
2 (n − k) An pu` o essere (n + 1) (n + 2) 2n (k − 2n − 1)!! A1 (2n + 1)!
Dunque, la soluzione `e un polinomio di grado minore o uguale a k − 1 n−k Laguerre: da An+1 = An pu` o essere An = 0 se e solo se k < n inoltre (n + 1)2 (−1)n k An = A0 n! k−n n (n + 1) − k (k + 1) (n − k) (n + k + 1) An = An pu` o essere (n + 1) (n + 2) (n + 1) (n + 2) An = 0 se e solo se n < k e per ogni n > 0 Legendre: da An+2 =
A2n = (−1)n
(k − 2n + 2)!! (k + 2n − 1)!! A0 (2n)!
A2n+1 = (−1)n
(k − 2n + 1)!! (k + 2n)!! A1 . (2n + 1)!
308
8 Soluzioni degli esercizi
Soluzione 2.37 Il valore attuale VA di un pagamento di importo (o valore nominale) VN effettuato dopo n anni ipotizzando un regime ad interessi composti con un tasso d’interesse costante r `e dato dalla formula VA = VN (1 + r)−n . La scelta del valore r opportuno non `e semplice ed una sua corretta determinazione `e importante per l’efficacia del modello. Per ogni singolo caso esisteranno valori adeguati. Ad esempio, per valutare l’opportunit` a di effettuare un investimento il tasso r per l’attualizzazione pu` o essere scelto pari al rendimento di titoli di stato di durata compatibile con l’investimento considerato. Tornando all’esercizio: Ak =
1 1 1 1 1 − (1 + r)−k 1 − (1 + r)−k + . = 2 +···+ −1 = k 1+r 1 + r 1 − (1 + r) r (1 + r) (1 + r)
Dunque
Ak =
1 − vk r
v = (1 + r)−1
Se Ak `e il valore attuale a tasso composto r di una rendita di k rate unitarie alle scadenze 1, . . . , k, allora Ak+1 si ottiene aggiungendo ad Ak il valore attuale delle rata unitaria riscossa al tempo k + 1: Ak+1 = Ak + (1 + r)−k+1 = Ak + v k+1 e applicando la formula dell’Osservazione 2.60 si ritrova il risultato sopra determinato. Se r = rk , allora Ak =
k
n=1
1 (1 + rk )n
Ak+1 = Ak + (1 + rk )−k+1 .
Utilizzando la formula dell’esercizio precedente, si ricava la 1 − vk relazione M = Q da cui r Soluzione 2.38
Q=
Mr 1 − vk
v = (1 + r)−1
Soluzione 2.39 a) Poich´e τk > 0, risulta rk ∈ [1, 5 , 15]. Il tasso dell’1, 5% si dice floor dell’obbligazione. b) Si deve soddisfare l’equazione 100 Pk = rk τk
8.2 Soluzioni degli esercizi del Capitolo 2
309
Di conseguenza, nelle ipotesi semplificatorie effettuate, tale prezzo dovrebbe essere Pk = 100 max {1, 5 , 15 − 2τk } /τk . Osserviamo l’elevata volatilit` a del titolo: se τk = 7, 25 allora Pk si riduce a 20, 68 (in base 100) cio`e si subisce una grossa perdita; ma, se τk → 0 allora il prezzo tende ` chiaro che i valori di Pk variano molto anche se τk varia poco (effetto a +∞. E leva). c) Pk + 100 (r1 + r2 + · · · + rk−1 ). Vendendo il titolo a scadenza si ottiene il valore 100 (1 + r1 + · · · + r10 ). d) 100 (1 + 5 + 5, 1 + 5, 2 + 4, 9 + 4 + 3 + 2, 5 + 2, 6 + 4 + 7, 5) Soluzione 2.40 Poich´e `e possibile riordinare i termini delle serie assolutamente convergenti, si ha: +∞ +∞ k k
1 1 Xh Yk−h = X Y = = h k−h zk zk z h z k−h k=0 k=0 h=0 k=0 h=0 +∞ +∞ +∞ +∞
Xh
Ys Xh Ys = = = Z {X} Z {Y } zh zs zh zs s=0 s=0
Z {X ∗ Y } =
+∞
(X ∗ Y )k
h=0
h=0
Soluzione 2.41 Dalla formula del binomio di Newton segue che k
k k m ∈ N. mk−s (m + 1) = s s=0 Sostituendo in tale formula successivamente al posto di m i primi n numeri interi positivi e sommando tali relazioni, si ricava: n k n n k k
k k k−s k k k−s (m + 1) = = m = m Sk−s s s m=1 s m=1 m=1 s=0 s=0 s=0 che si riscrive come
k
k k Sk − 1 + (n + 1) = Sk + Sk−s 0 s s=1 k
da cui si ricava Sk−1
k
k = (n + 1) − 1 Sk−s . s s=2 k
Soluzione 2.42 Se n = 2, allora det
0
1 μ1 1 μ2
1 = μ2 − μ1
Se n = 3, allora sostituendo μ al posto di μ1 nella matrice ⎤ ⎡ 1 μ1 μ21 ⎣ 1 μ2 μ22 ⎦ 1 μ3 μ23
310
8 Soluzioni degli esercizi
calcolando il determinante, otteniamo un polinomio P (μ) di secondo grado. Se si sostituisce l’incognita μ anche al posto di μ2 oppure di μ3 il determinante si annulla o significa che vale l’uguaglianza P (μ) = e dunque μ2 e μ3 sono radici di P (μ). Ci` a (μ − μ2 ) (μ − μ3 ) dove a `e il coefficiente del termine di secondo grado μ2 di P . Dunque a coincide con il complemento algebrico di μ21 e di conseguenza ⎡ ⎤ 1 μ1 μ21 2 det ⎣ 1 μ2 μ2 ⎦ = (μ3 − μ2 ) (μ1 − μ2 ) (μ1 − μ3 ) . 1 μ3 μ23 La formula relativa al caso di dimensione n si ottiene analogamente, supponendo nota quella del caso di dimensione n − 1. Soluzione 2.43 Z
1 k!
7 =
+∞ k=0
1 = e1/z . z k k!
8.3 Soluzioni degli esercizi del Capitolo 3 Soluzione 3.3
7 7 2 4 8 2 4 6 , , , , , . 7 7 7 9 9 9
Soluzione 3.4 Osserviamo che X1 − X0 =
√ X0 + 2 − X02 X0 + 2 − X0 = √ ≥0 X0 + 2 + X0
⇔
−2 ≤ X0 ≤ 2.
Proviamo che {Xk } `e strettamente crescente per λ ∈ [−2, 2). A questo scopo, dopo aver notato che la successione `e a termini positivi, verifichiamo che se X0 ∈ [−2, 2) allora Xk < 2 per ogni k ∈ N. Infatti, X0 ∈ [−2, 2); inoltre se si suppone, per k ≥ 1, (ipotesi di induzione) che Xk < 2 si ottiene: √ √ Xk+1 = Xk + 2 < 2 + 2 = 2. Mostriamo ora che, se X0 ∈ [−2, 2), allora {Xk } `e una successione crescente . Per ogni k ≥ 1, si ha: √ Xk+1 − Xk = Xk + 2 − Xk = Xk + 2 − Xk2 = √ = Xk + 2 + Xk
moltiplicando e dividendo per
Xk +2+Xk
fattorizzando
− (Xk + 1) (Xk − 2) √ ≥ Xk + 2 + Xk ≥ 0. =
√
perch´ e Xk <2
& % √ Ne segue che, per ogni λ ∈ [−2, 2), il s.d.d. [−2, 2), x + 2 individua una successione convergente ad α = 2 (si confronti con la discussione dell’Esempio 3.23). Invitiamo il lettore ad analizzare il caso λ > 2, verificando che si ottiene una successione (decrescente e) convergente ad α = 2.
8.3 Soluzioni degli esercizi del Capitolo 3 Soluzione 3.6 Iterando:
311
3 2 X1 = − (X0 )3 = −X03 , X2 = − −X03 = (−1)2 (X0 )3 = X09 . k
Xk = (−1)k (X0 )3
k ∈ N.
Soluzione 3.7 Per prima cosa disegnamo il grafico della funzione f : R → R, f (x) = (x + |x|) /4.
Figura 8.5 Grafico di f (x) = (x + |x|) /4 L’unico punto di equilibrio `e α = 0. Se X0 < 0, allora X1 = f (X0 ) = 0 e dunque Xk = 0 per ogni k ∈ N. Se X0 > 0, l’analisi grafica suggerisce che la successione {Xk } sia decrescente e convergente a 0: la conferma pu` o essere ottenuta per induzione. Soluzione 3.8 Il sistema dinamico presenta due equilibri: α1 = −π e α2 = π. Dall’analisi grafica si deduce che qualunque sia il dato iniziale in (−π, π) la successione corrispondente {Xk } risulta crecente e convergente a π. Soluzione 3.9 Proviamo gli algoritmi nel caso pi` u generale f : I → I, I ⊆ R intervallo chiuso. Algoritmo I. Sia X0 ≤ X1 . Dimostriamo che X `e crescente, procedendo per induzione. Per k = 1 la relazione `e vera per ipotesi. Se (ipotesi di induzione) Xk−1 ≤ Xk , poich´e f `e crescente, si ricava f (Xk−1 ) ≤ f (Xk ) che equivale a Xk ≤ Xk+1 . Allo stesso modo si procede se X0 ≥ X1 . Sia ora f crescente e continua sull’intervallo chiuso I, e X0 < X1 . Se I ha estremo superiore b ∈ R, allora, per il Teorema 3.20, f ammette almeno un punto fisso in [X0 , b]. L’insieme dei punti fissi di f su [X0 , b] `e sicuramente limitato (perch´e `e limitato [X0 , b]), `e non vuoto (perch´e f ammette almeno un punto fisso). Quindi, l’insieme dei punti fissi di f ammette estremo inferiore, diciamo α, che `e anche minimo. Infatti, se {αn } `e una successione di punti fissi tale che αn → α per n → +∞, o implica dalla continuit` a di f segue f (αn ) → f (α) ed essendo f (αn ) = αn , ∀n, ci` f (α) = α ovvero α appartiene all’insieme dei punti fissi.
312
8 Soluzioni degli esercizi
Verifichiamo ora che Xk ≤ α per ogni k. Se k = 0, la relazione `e vera perch´e α ∈ (X0 , b]. Se (ipotesi di induzione) Xk ≤ α , dato che f `e crescente, si ha Xk+1 = f (Xk ) ≤ f (α) = α. In conclusione, X `e una successione crescente e limitata superiormente: dunque, essa ammette limite finito L ≤ α. Ma essendo f continua, per il Teorema 3.22 L `e punto fisso per f e non potendo essere minore di α si ricava L = α. Infine, se I `e illimitato superiormente, e f non ammette punti fissi “a destra” di X0 , X risulter` a una successione illimitata, perch´e altrimenti il suo limite sarebbe punto fisso di f . Procedendo allo stesso modo si dimostra il caso X1 < X0 . Algoritmo II. La funzione g = f ◦ f = f 2 risulta crescente, e X2k = f (X2k−1 ) implica X2k+1 = f (X2k ) = g (X2k−1 ) . Concludiamo cos`ı che la successione {X2k+1 } `e definita per ricorrenza mediante la funzione crescente g e le conclusioni seguono dall’Algoritmo I. Allo stesso modo si procede per {X2k }. Sia ora X1 ≤ X2 . Supponendo che, per k ≥ 1 fissato, sia X2k−1 ≤ X2k , si deduce X2k+1 = g (X2k−1 ) ≤
perch´ eg ` e crescente e X2k−1 ≤X2k
≤ g (X2k ) = X2k+2 . Per il principio di induzione risulta cos`ı X2k−1 ≤ X2k per ogni k ≥ 1. Soluzione 3.11 La funzione f : R → R definita da f (x) = |x − 1| /2 ammette un unico punto fisso α = 1/3, soluzione di x∈R:
|x − 1| = x. 2
Poich´e f `e una contrazione (con costante 1/2), il Teorema 3.28 permette di concludere che qualunque sia il dato iniziale X0 ∈ R la successione corrispondeno dedurre che la te Xk = f (Xk−1 ) converge ad 1/3. Dall’analisi grafica si pu` convergenza non `e monot` ona. Soluzione 3.12 Con la prima strategia (quantit` a prefissata): ) 2 f (x) = (1 + a) x − ax − b, gli equilibri sono α1,2 = 1 ± 1 − 4b/a /2 , e • se 0 < b < a/4, allora vi sono due equilibri positivi: α1 > α2 > 0, con α1 stabile e attrattivo e α2 repulsivo; • se b = a/4, allora α1 = α2 = 1/2 che `e instabile; • se b > a/4, allora non vi sono equilibri. Riassumendo, il massimo pescato sostenibile con la prima strategia ` e a/4, che per` o corrisponde ad una situazione instabile. Con la seconda strategia (proporzione fissata), f (x) = (1 + a − r) x − ax2 , gli equilibri sono α2 = 0, α1 = 1 − r/a, f (α1 ) = 1 − a + r, α1 stabile se 0 < r < a (la condizione r > a − 2 `e automatica se a < 2, dovendo essere r ∈ (0, 1)). Dunque, con
8.3 Soluzioni degli esercizi del Capitolo 3
313
la seconda strategia Pmax (a) =
max [a−2,a]∩[0,1]
rα1 =
a/4 0≤a≤2 1 − 1/a a > 2
.
Osserviamo che la quantit` a massima di pescato Pmax (a) `e funzione crescente di a. Osserviamo inoltre che se a > 2 pu` o convenire la prima strategia, a condizione di non eccedere... . Soluzione 3.14 Gli eventuali equilibri sono soluzione dell’equazione x∈R:
(1 − a) x = b.
Se a = 1 e b = 0, ogni c ∈ R `e di equilibrio; se a = 1 e b = 0, non ci sono punti di equilibrio; infine, se a = 1, vi `e un solo punto di equilibrio: c = b/ (1 − a). Per quanto riguarda la stabilit` a, se a = 1 e b = 0, ogni punto di equilibrio `e stabile ma non attrattivo; se a = 1, poich´e g (x) = a, per il Teorema 3.53, ogni punto di equilibrio `e globalmente asintoticamente stabile se |a| < 1, repulsivo se |a| > 1. Si confrontino i risultati ottenuti con grafici e commenti del paragrafo 2.1. Soluzione 3.15 Utilizziamo l’Algoritmo II. 4 La funzione f (x) = 1 − arctan x `e continua e strettamente decrescente, con π −1 < 1 −
4 arctan x < 1 π
∀x ∈ R .
4 ` necessario allora Se Y0 = 4, allora Y1 = 1 − arctan 4 = Y0 , e anche Y2 < Y0 . E π determinare eventuali punti fissi di
4 4 f 2 (x) = 1 − arctan 1 − arctan x . π π Osserviamo che f 2 (0) = 0 e f 2 (1) = 1. Inoltre:
16 f 2 (x) = 2 π
1
2 4 (1 + x2 ) 1 + 1 − arctan x π
e quindi f 2 (x) < 1 per ogni x ≥ 1: a destra di x = 1 non vi sono altri punti fissi 2 di f . Allora, per l’Algoritmo II, si deduce che Y2k 1 e Y2k+1 f (1) = 0. Soluzione 3.16 Tracciando il grafico della funzione f : R → R definita da f (x) = 2 x + 4 /3 ci si rende conto che non esistono punti di equilibrio: qualunque sia a ≥ 0, la successione risulta crescente e non limitata, quindi divergente a +∞. In effetti, ∀a ≥ 0, si ha: Yk+1 − Yk =
Yk2 + 4 1 2 − Yk = Yk − 3Yk + 4 ≥ 0 3 3
∀k ∈ N
dato che il discriminante del polinomio di secondo grado in parentesi ` e negativo.
314
8 Soluzioni degli esercizi
Inoltre, poich´e 4Yk ≤ Yk2 + 4 la differenza fra due termini consecutivi cresce con k Yk+1 − Yk =
1 2 1 Yk − 3Yk + 4 ≥ Yk 3 3
e quindi la successione non `e superiormente limitata. Soluzione 3.17 Tracciando il grafico della funzione f : R → R definita da f (x) = 2 x + 6 /5, ci si rende conto della presenza di due punti di intersezione, in x = 2 e x = 3, fra il suo grafico e la bisettrice del primo e terzo quadrante. Ci` o significa che vi sono due punti di equilibrio: se a = 2
Yk = 2
∀k ∈ N
se a = 3
Yk = 3
∀k ∈ N.
Da un’analisi grafica si deduce che il primo equilibrio `e attrattivo, il secondo `e repulsivo e, pi` u precisamente: • se |a| < 3, allora limk Yk = 2; • se |a| > 3, allora limk Yk = +∞. Cerchiamo una conferma analitica di tali risultati. Grazie al Teorema 3.53, dato che f (2) =
4 <1 5
f (3) =
6 >1 5
deduciamo che α = 2 `e un equilibrio localmente asintoticamente stabile, mentre α = 3 `e repulsivo. Inoltre, poich´e f , per x > 0, `e strettamente crescente, grazie all’Algoritmo I si deduce che: • poich´e Y1 < Y0 = a per ogni a ∈ (2, 3), si ha limk Yk = 2; • poich´e Y1 > Y0 per ogni a ∈ (0, 2), segue che limk Yk = 2; • poich´e Y1 > Y0 per ogni a ∈ (3, +∞), segue che Yk +∞. I risultati nel caso x < 0 si ottengono per simmetria dai precedenti. Soluzione 3.18 Per prima cosa, tracciamo il grafico della funzione f : R → R, f (x) = 2x exp (−x/2). A tale scopo, notiamo che lim f (x) = 0+ ;
lim f (x) = −∞
x→−∞
x→+∞
f (x) = e−x/2 (2 − x)
f (x) = e−x/2
e quindi f (x) ≥ 0
f (x) ≥ 0
⇔
x≤2
⇔
x ≥ 4.
x 2
−2
8.3 Soluzioni degli esercizi del Capitolo 3
315
Figura 8.6 Grafico di xe−x/2 Per determinare eventuali punti fissi, osserviamo che f (0) = 0 e f (0) = 2. Ci` o significa che, per x > 0, il grafico della funzione identit` a interseca il grafico di f in un solo punto, diciamo x. Inoltre, poich´e 2 f (1) = √ > 1 = f (1) e
f (2) =
4 < 2 = f (2) e
si ha 1 < x < 2. Da quanto sopra ricavato, per l’Algoritmo I, la successione Y converge a x, se 0 < a < x oppure x < a ≤ 2. Se a > 2, poich´e necessariamente Y1 = f (Y0 ) < 2 si rientra nel caso precedente e quindi di nuovo si ha convergenza al valore x. √ Soluzione 3.19 Per ogni Y0 = a > b la successione calcolata per ricorrenza da
1 b Yk + ∀k ∈ N Yk+1 = 2 Yk √ `e ben definita. Infatti, si prova per induzione, che √ Yk > b, ∀k ∈ N. Per k = 1, l’affermazione `e vera per ipotesi. Supposto ora Yk > b (ipotesi di induzione), si ha:
√ √ 1 b Yk + − b= Yk+1 − b = 2 Yk √ quadrato del binomio 1 2 Yk − 2 bYk + b = = 2Yk √ 2 ipotesi di induzione 1 Yk − b > = 2Yk > 0.
316
8 Soluzioni degli esercizi
La successione Y `e strettamente decrescente. Infatti, per ogni k ≥ 1, √ √
b − Yk b + Yk 1 b b − Yk2 = <0 − Yk = Yk + Yk+1 − Yk = 2 Yk Yk Yk per quanto mostrato al punto precedente. Quindi, Y `e strettamente decrescente, limitata inferiormente e perci` o ammette limite L ∈ R. Inoltre, L deve essere punto fisso per g, e quindi:
√ b 1 L+ ⇔ L = α. L= 2 L √ √ Da quanto appena ottenuto, se Y0 = b la successione Y `e costante: Yk = b, ∀k ∈ N. Calcoliamo la distanza k+1 dall’equilibrio al passo k + 1 in funzione della corrispondente distanza k al passo k: vedi sopra √ 0 ≤ k+1 = Yk+1 − b = √ 2 Yk − b per definizione = = 2Yk √ se Yk > b>0 2 = k < 2Yk 2k . < √ 2 b
√ Posto β = 2 b, risulta k+1 < β
k β
2
<β
k−1 β
4
< ··· < β
1 β
2k ∀k ≥ 1.
Si ha dunque un buon algoritmo per calcolare la radice quadrata del numero α dato che l’espressione ricorsiva Yk+1 = f (Yk ) `e semplice e la stima dell’errore k converge velocemente a zero. Ad esempio, se b = 3 e Y0 = 2, risulta β < 4 e √ 1 1 1 1 2− 3 √ = √ √ = √ < = . β 10 2 3 2 3 2+ 3 6+4 3 Di conseguenza e quindi
2 < 4 · 10−4
√ 1 3 " Y3 = 2
Y2 +
3 Y2
3 < 4 · 10−8
=
1 2
97 3 · 56 + 56 97
= 1, 7321 .
√ Soluzione 3.20 Consideriamo il s.d.d. {(−6, +∞) , f } dove f (x) = 6 + x. √ > −6. Allora vi `e un solo equilibrio Poniamo Xk+1 = 6 + Xk avendo fissato X0 √ α = 3, perch´e 3 `e l’unica soluzione di 0 < α = 6 + α. u precisamente, `e α `e localmente asintoticamente stabile perch´e f (3) = 1/6. Pi`
8.3 Soluzioni degli esercizi del Capitolo 3
317
globalmente attrattivo perch´e se X0 = 3, allora Xk = 3 per ogni k, altrimenti Xk ≥ 0 per ogni k ≥ 1 e x>3 0<x<3
⇔ ⇔
3 < f (x) < x x < f (x) < 3
ona e convergente a 3. Dunque ogni traiettoria {Xk } risulta strettamente monot` Soluzione 3.21 Sia max f = β < 0. Allora: R
Y1 = Y0 + f (Y0 ) < Y0 + β Y2 = Y1 + f (Y1 ) < Y1 + β < Y0 + 2β ... = ... Yk+1 = Yk + f (Yk ) < Yk + β < Y0 + (k + 1) β. Per il teorema del confronto sui limiti, limk (k + 1) β = −∞ implica limk Yk = −∞. Allo stesso modo si procede per dimostrare la seconda parte della tesi. Soluzione 3.22 (1 − s) `e la probabilit` a che il batterio (o un suo discendente) si estingua. a che entrambi gli eventuali eredi diretti si estinguano. (1 − s)2 `e la probabilit` Confrontando due generazioni successive, otteniamo l’equazione in s (p `e un dato!): (8.1) s = p 1 − (1 − s)2 . Infatti, il batterio per non estinguersi deve risprodursi (con probabilit` a p) e non debbono estinguersi entrambi gli eredi. L’equazione (8.1) ha due soluzioni: s = 0 e s = 2 − 1/p. Se p ≤ 1/2, allora `e accettabile la sola soluzione s = 0 (perch´e la probabilit` a non `e mai negativa), dunque il batterio si estingue. Se p > 1/2, allora occorre scegliere tra le due soluzioni il corretto valore di s: sia a che il batterio riesca a riprodursi per almeno k generazioni. Allora Sk la probabilit` Sk+1 = p 1 − (1 − Sk )2 S1 = p perch´e un batterio arriva alla generazione (k + 1)-esima se e solo se si suddivide ed almeno uno dei suoi due discendenti si riproduce k volte. L’analisi grafica mostra ona convergente a 2 − 1/p. che se p > 0, allora {Sk } `e monot` Concludendo, per completezza, se p > 1/2 il batterio ha probabilit` a s = 2 − 1/p di essere “immortale” (ne `e sicuro solo se p = 1), poich´e la probabilit` a di essere immortale `e il limk→+∞ Sk . & % Per provare la monotonia, studiamo il s.d.d. R+ , f con f (x) = 2px−px2 al variare di p ∈ [0, 1]. Se p = 0 la dinamica `e banale. Se p ∈ (0, 1], il grafico di f `e una parabola (concava). Determiniamo eventuali equilibri: −px2 + 2px = x
⇔
x [px − (2p − 1)] = 0
⇔
x = 0 oppure x = 2 − 1/p.
318
8 Soluzioni degli esercizi
Poich´e f (x) = 2p (1 − x), tenendo conto che deve essere x ≥ 0 possiamo concludere che: • se p ∈ (0, 1/2), allora vi `e solo l’equilibrio nullo che `e stabile in quanto f (0) = 2p < 1; • se p = 1/2, allora l’unico equilibrio `e lo 0 che `e stabile in [0, 1] perch´e `e semistabile superiormente in R; • se p ∈ (1/2, 1], allora vi sono due equilibri α0 = 0 e α1 = 2 − 1/p; α0 `e instabile e dato che f (α0 ) = 2p > 1, mentre α1 `e localmente asintoticamente stabile poich´ f (α1 ) = 2 (1 − p) < 1, ed il suo bacino `e (0, +∞). Dunque, partendo da S1 = p > α1 , Sk converge ad α1 decrescendo.
p 1 __ 2
1 __ 2
p
pp 1
2
1
2
1
Figura 8.7 Ragnatele dell’Esercizio 3.22 : 0 ≤ p < 1/2 , p = 1/2 , 1/2 < p < 1 . Soluzione 3.25 Tracciando il grafico di f (x) = cos x e della funzione identit` a, ricaviamo l’esistenza di un unico equilibrio α del s.d.d. assegnato. Necessariamente α ∈ (0, 1) e da f (x) = − sin x si deduce |f (α)| = |sin α| < 1. Dunque, per il Teorema 3.53, α `e un equilibrio stabile. Osserviamo ora che X1 ∈ [−1, 1] e X2 ∈ [0, cos 1] qualunque sia X0 ∈ R. Inoltre −1 < − sin 1 ≤ f (x) ≤ 0
∀x ∈ [0, cos 1] .
Dunque, se k ≥ 3, allora Xk − α e Xk+1 − α hanno segni opposti e |Xk+1 − α| ≤ c |Xk − α| avendo posto c = sin 1. Quindi {Xk } converge ad α oscillando. Risolvendo numericamente l’equazione α = cos α si pu` o ottenere il valore cercato.
8.3 Soluzioni degli esercizi del Capitolo 3
319
1
0.5
2
4
6
8
10
12
-0.5
-1 Figura 8.8 Grafici di f , f 2 ,f 5 , f 20 con f (x) = cos x
Soluzione 3.26 La funzione fβ , per ogni valore di β, `e continua e crescente. Cerchiamone eventuali punti fissi: & % & % & % √ √ x ≥ 0 : β + x = x = x ≥ 0 : x = x − β = x ≥ max {0, β} : x = (x − β)2 = & % = x ≥ max {0, β} : x2 − (2β + 1) x + β 2 = 0 Il discriminante Δ = (2β + 1)2 − 4β 2 = 1 + 4β risulta non negativo se e solo se β ≥ −1/4. In conclusione: • se β < −1/4 non vi sono punti di equilibrio; • se β = −1/4 vi `e un unico punto di equilibrio: α = β + 1/2 = 1/4; • se β > −1/4 occorre determinare le soluzioni del sistema ⎧ x≥0 ⎪ ⎨ x≥β √ √ ⎪ ⎩ x = β + 1 + 1 + 4β oppure x = β + 1 − 1 + 4β 1 2 2 2 Evidentemente x1 `e sempre accettabile mentre x2 lo `e solo quando ) ⇔ β ≤ 0. 1 − 1 + 4β ≥ 0 Studiamo ora i vari casi individuati. Se β < −1/4, dopo un numero finito di passi l’iterazione si deve arrestare in quanto esiste un k tale che Xk < 0. Dunque, in tal caso la successione non `e definita. Se β = −1/4, allora X1 < X0 per ogni X0 = 1/4 e dunque, per l’Algoritmo I, quando X0 < 1/4 allora Xk → α mentre per 0 ≤ X0 < 1/4 il sistema si arresta dopo un numero finito di passi. √ 1 + 1 + 4β e α2 = β + Se −1/4 < β ≤ 0 esistono due equilibri, α1 = β + 2 √ 1 − 1 + 4β con 0 < α2 < α1 . Sempre in base all’Algoritmo I, possiamo concludere 2 che se X0 > α1 allora X0 → α1 ; se α2 < X0 < α1 poich´e X1 > X0 e α1 > X0 si conclude nuovamente che Xk → α2 ; infine, partendo a sinistra di α2, per β = 0, il sistema si ferma dopo un numero finito di passi.
320
8 Soluzioni degli esercizi
√ 1 + 1 + 4β . Se X0 > α allora X1 < X0 `e Se β > 0 vi `e un unico equilibrio α = β + 2 cos`ı l’Algoritmo I ci dice che Xk → α e la stessa cosa accade per X0 < α in quanto X1 > X0 . Soluzione 3.27 L’equzione T 3 (x) = x presenta 8 soluzioni (vedi Figura 8.9): due sono equilibri, le altre 6 corrispondono a due orbite 3 periodiche (vedi Esercizio 3.3). Le due orbite 3 periodiche sono entrambe instabili come si deduce adattando l’argomento del Teorema 3.69. Una di tali orbite periodiche `e {2/7, 4/7, 6/7}. Inoltre T (1/7) = 2/7, dunque 1/7 `e nel bacino del 3 ciclo indicato e la traiettoria che parte da 1/7 `e definitivamente periodica: 1 2 4 6 2 4 6 2 , , , , , , , , ... 7 7 7 7 7 7 7 7
Figura 8.9 Grafici di T e T 3 2 Soluzione 3.28 √ L’equazione caratteristica λ − λ − 1 = 0 ammette le due soluzioni λ1,2 = 1 ± 5 /2 e quindi la soluzione generale dell’equazione `e
Xk = c 1
√ k √ k 1+ 5 1− 5 + c2 . 2 2
Sostituendo i valori X1 e X2 si determinano le costanti c1 e c2 e dunque la soluzione particolare √ √ √ k √ k 1 2α − 1 + 5 1 + 5 1 2α − 1 − 5 1 − 5 √ √ −√ . Xk = √ 2 2 5 1+ 5 5 1− 5 Si noti che se α = 1, Xk coincide per k ≥ 1 con la successione dei numeri di Fibonacci. (b) Si ha Yk+1 = f (Yk ) dove f : R\ {−1} → R, f (x) = (1 + x)−1 `e una funzione non lineare. La successione Y ha termini positivi perch´e se x > 0, allora f (x) > 0. Un eventuale limite finito deve risolvere {x ≥ 0 : f (x) = x} la cui unica soluzione `e
8.3 Soluzioni degli esercizi del Capitolo 3
321
√ l = −1 + 5 /2. Effettivamente risulta limk Yk = l. Infatti, poich´e f `e strettamente decrescente nell’intervallo (0, +∞) e f (l) = l, seguono le implicazioni f (x) < l; 0 < x < l ⇒ f (x) > l √ −1 + 5 < Y2k per ogni k ≥ 1. e dunque Y2k+1 < 2 Inoltre la successione {Y2k } `e strettamente decrescente e {Y2k+1 } `e strettamente crescente. Infatti, posto g (x) = f 2 (x) = f (f (x)) = 1 − (2 + x)−1 , vale 0 < g (x) < 1/2 per ogni x > 0, da cui, applicando a g ∈ C 1 (0, +∞) il Teorema di Lagrange, x>l
⇒
|Y2k+2 − l| = |f (f (Y2k )) − f (f (l))| = |g (Y2k ) − g (l)| = 1 |1 − l| = g (ξ) · |Y2k − l| < |Y2k − l| < k+1 2 2
k≥0
e analogamente 1 l − 1/2 k ≥ 0. |Y2k−1 − l| < 2 2k √ Concludendo, Yk converge rapidamente a −1 + 5 /2 oscillando attorno a tale valore. (c) Yk `e esprimibile con la frazione continua |Y2k+1 − l| <
1
Yk =
1 1 + ···
1+
.
Il calcolo dei primi valori della successione Y2 = 1,
Y3 =
1 , 2
Y4 =
2 , 3
Y5 =
3 , 5
Y6 =
5 ,... 8
porta a congetturare l’espressione Yk =
√ k−1 √ k−1 1+ 5 − 1− 5 Fk−1 =2 √ k √ k Fk 1+ 5 − 1+ 5
∀k ≥ 2
dove {Fk } `e la successione dei numeri di Fibonacci. Proviamola per induzione. Se k = 2 allora Y2 = 1 = F1 /F2 . Supposta ora vera la relazione per un k ≥ 2 fissato, si ha 1 Fk Fk = = . Yk+1 = 1 + Yk Fk + Fk−1 Fk+1 Si noti che √ Fk−1 5−1 . = lim Yk = lim k k Fk 2 √ √ (d) Il s.d.d. presenta due soli equilibri α1 = 5 − 1 /2 e α2 = − 5 − 1 /2. α1 `e stabile e attrattivo perch´e f ∈ C 1 (R\ {−1}) e |f (α1 )| < 1; α2 `e instabile perch´e |f (α2 )| > 1. Se β > −1, allora si pu` o ripetere l’analisi fatta al punto (b), concludendo che Zk > 0 per ogni k ≥ 2, e Zk tende rapidamente ad l qualunque sia il dato iniziale , oscillando rispetto ad l.
322
8 Soluzioni degli esercizi
Il caso β ≤ −1 `e pi` u delicato: infatti, la successione {Zk } risulta definita per ogni k ≥ 2 se e solo se β = −1 ed ogni valore di Zk calcolato a partire da β `e diverso 1−t da −1. A questo scopo consideriamo la funzione inversa f −1 di f : f −1 (t) = e t denotiamo con Wk la successione cos`ı definita Wk+1 = f −1 (Wk ) W1 = −1 i cui primi termini sono {−1, −2, −3/2, −5/3, −8/5, −13/8, . . . }.
Figura 8.10 Ragnatele relative all’Esercizio 3.28 Si verifica per induzione che Wk = −Fk+1 /Fk per ogni k ≥ 1: W1 = −1 = −
F2 , F1
Wk+1 =
1 − Wk Fk + Fk+1 Fk+2 =− =− . Wk Fk+1 Fk+1
Si noti che −2 ≤ Wk ≤ −1, per ogni k. Dunque il s.d.d. `e ben definito per ogni valore iniziale α ∈ R diverso da −Fk+1 /Fk , ∀k ∈ N, dove Fk `e il k-esimo numero di Fibonacci. Se β < −2 `e un dato iniziale (automaticamente ammissibile), allora Zk > −1 per
8.4 Soluzioni degli esercizi del Capitolo 4
323
ogni k ≥ 3 e per l’analisi precedente Zk converge oscillando ad l. Se −2 < β < 1 `e un dato iniziale ammissibile (cio`e β = −Fk+1 /Fk per ogni k) allora, come al punto (b), si prova che Zk oscilla attorno ad α2 , passando dalla regione {x ∈ R : −2 < x < α2 } a quella {x ∈ R : α2 < x < −1} e viceversa in modo tale che ono strettamente crescente, fino a che Xk < −2, dopodich´e |Zk − α2 | risulta monot` Zk+1 > −1 e la traiettoria finisce per essere attratta anch’essa dall’equilibrio α1 con le modalit` a descritte in (b). Soluzione 3.29 Supponendo X0 > 0 e X1 > 0, si ha che Xk > 0 per ogni k ∈ N. Allora, il problema assegnato `e equivalente a log Xk+2 = 5 log Xk+1 − 6 log Xk
k∈N
che `e una equazione alle differenze lineare del secondo ordine (nella nuova incognita Zk = log Xk ) ottenuta prendendo il logartimo di entrambi i membri. L’equazione caratteristica λ2 − 5λ + 6 = 0 ammette le due radici λ1 = 2 e λ2 = 3, e dunque la soluzione generale `e k ∈ N. Zk = c1 2k + c2 3k da cui si ricava
Xk = exp c1 2k + c2 3k
k ∈ N.
Osserviamo che se X0 = 0 o X1 = 0, la successione non `e definita. Inoltre, se X0 = 0 = X1 , allora la successione ha lo stesso segno di X1 , ∀k ≥ 1.
8.4 Soluzioni degli esercizi del Capitolo 4 Soluzione 4.1 Affinch´e vi sia il 3 ciclo {1, 2, 3} si deve verificare X0 = 1, f (X0 ) = X1 = 2, f (X1 ) = X2 = 3 e f (X2 ) = X3 = 1, cio`e deve ammettere soluzione il sistema ⎧ ⎨a+ b+c = 2 4a + 2b + c = 3 ⎩ 9a + 3b + c = 1 Si ricava che tale sistema ammette l’unica soluzione: a = −3/2, b = 11/2, c = −2 . Soluzione 4.5 L’equazione x ∈ [0, 1] : ha (x) = x ammette le soluzioni α = 0 e αa = (a − 1) /a che sono i punti fissi del s.d.d.. I punti della traiettoria 2 periodica sono soluzioni di x ∈ [0, 1] : h2a (x) = x, ha (x) = x. Poich´e h2a (x) = a [ax (1 − x)] [1 − ax (1 − x)] = a2 x (1 − x) 1 − ax + ax2 si ottiene 2 3 h2a (x) − x = x a2 1 − ax + ax2 − x + ax2 − ax3 − 1 = 3 2 = x −a3 x3 + 2a3 x2 − 2a2 (a + 1) x + a2 − 1 = 0 1 1+a a2 − 1 x− . = −a3 x x3 − 2x2 + a a3
324
8 Soluzioni degli esercizi
Sapendo che αa `e punto fisso per ha , fattorizziamo effettuando la divisione per (x − αa ), ricavando h2a (x) − x =
a−1 a+1 a+1 = −a3 x x − x2 − x+ = a a a2 √ √
a−1 a + 1 + a2 − 2a − 3 a + 1 − a2 − 2a − 3 = −a3 x x − x− x− a 2a 2a Dunque, se a > 3 βa =
a+1+
) (a + 1) (a − 3) , 2a
γa =
a+1−
)
(a + 1) (a − 3) 2a
sono i punti dell’orbita 2 periodica. Si noti che β3 = γ3 e βa > γa se a > 3. In particolare √ a2 = 1 + 6 = 3, 449489 . . . √ √ βa2 = 1 + 3 − 2 = 1, 3178 . . . √ √ γa2 = 1 + 2 − 3 = 0, 68216 . . . I conti svolti provano direttamente che {βa , γa } `e l’unica orbita 2 periodica di {R, ha }. Soluzione 4.6 Essendo esplicitamente noti i valori βa e γa dall’esercizio precedente, possiamo calcolare ha (βa ) e ha (γa ). Poich´e ha (x) = a (1 − 2x), si ricava ) ) a + 1 + (a + 1) (a − 3) ha (βa ) = a 1 − 2 = −1 − (a + 1) (a − 3) 2a ) ) a + 1 − (a + 1) (a − 3) ha (γa ) = a 1 − 2 = −1 + (a + 1) (a − 3) 2a e quindi Cos`ı
ha (βa ) ha (γa ) = 1 − (a + 1) (a − 3) . |ha (βa ) ha (γa )| < 1
⇔ ⇔ ⇔
|1 − (a + 1) (a − 3)| < 1 −1 < 1 − (a + 1) (a − 3) < 1 −2 < − (a + 1) (a − 3) < 0
se a > 3
⇔ ⇔ ⇔
−2 < − (a + 1) (a − 3) a2 − 2a − √5 < 0 a < 1 + 6.
La conclusione segue dal Teorema 3.65. √ Si noti che nell’intervallo 3 < a < 1 + 6 si ha ha (βa ) < −1 e 0 < ha (γa ) < 1. Soluzione 4.7 Le relazioni proposte dal suggerimento assicurano, grazie al Teorema 3.61, che βa e γa sono equilibri stabili e localmente attrattivi per g = f 2 , ed il Lemma 3.64 consente di provare l’affermazione contenuta nel suggerimento. Sia ora f = ha2 ed g = h2a2 . Calcoliamo le derivate
8.4 Soluzioni degli esercizi del Capitolo 4
ga
ba
ga
aa
325
ba
Figura 8.11 Grafici di h3,1 e h23,1
h2a = ha (ha ) ha 2 2 ha = ha (ha ) ha + ha (ha ) ha 3 2 = h + 3ha (ha ) ha ha + ha (ha ) h ha a (ha ) ha a . Tenendo conto di ha (x) = a (1 − 2x) ,
ha (x) = −2a,
h a (x) = 0
e ha (γa ) = βa ,
ha (βa ) = γa ,
h2a (γa ) = γa ,
h2a (βa ) = βa
ha (γa ) ha (βa ) = −a2 + 2a + 4
otteniamo g (γa2 ) = g (βa2 ) = −1 e, utilizzando le espressioni esplicite di γa e βa ricavate nell’Esercizio 4.5, √ ) 2−1 > 0 g (γa ) = −12a2 1 − a2 − 2a − 3 = 12a2 da cui 2g (γa2 ) + 3 (g (γa2 )) > 0 g (γa ) = −2a a2 (1 − 2γa )2 + a (1 − 2βa ) = √ √
a + 1 − a2 − 2a − 3 a + 1 − a2 − 2a − 3 2 +a 1− = −2a2 a 1 − a a √ √ √ 1+ 3 6−2 g (γa2 ) = 2 1 + 6 2
g (βa ) = 3 (−2a) (−2a) a (1 − 2βa2 ) = 12a3 √ √ g (βa2 ) = −12 7 + 2 6 1 + 2
−1 −
√
a2 − 2a − 3 a
√ √ √ √ 2 3 g (βa2 ) = 12 7 + 2 6 28 + 12 3 − 4 6 − 12 2 > √ √ > 12 7 + 2 6 2 + +2 2 = −2g (βa2 ) .
326
8 Soluzioni degli esercizi
Soluzione 4.8 Si suggerisce di partire da X0 = 1/2 (in modo di utilizzare il Teorema di Fatou) e calcolare una sessantina di iterazioni, verificando che {X2k } e {X2k+1 } si stabilizzano con un certo numero di decimali e poi calcolare h (X60 ) h (X61 ). Si osservi che comunque, grazie alla stabilit` a, tutti i valori iniziali diversi da 0, αa , 1 sono nel bacino di attrazione dell’orbita periodica. L’unicit` a del 2 ciclo segue dal fatto che ha2 (x) = x `e un’equazione di quarto grado, e quindi ha al pi` u quattro soluzioni, di cui due sono equilibri. Soluzione 4.10 1) αa `e un equilibrio superattrattivo se risolve a (1 − 2αa ) = 0 con 1 < a ≤ 3. Dunque, b0 = 2 e α2 = 1/2 `e l’equilibrio superattrattivo. 2) Per il Teorema di Fatou 1/2 `e nel bacino di attrazione dell’orbita {γa , βa }. Risolvendo in a ∈ (a1 , a2 ) l’equazione h2a (1/2) = 1/2 otteniamo il valore b1 di a per cui 1/2 appartiene al 2 ciclo. Per tale valore il 2 ciclo `e superattrattivo grazie al Teorema 3.65: 2 ha (γa ) = h2a (βa ) = (ha ) (γa ) (ha ) (βa ) . Si tratta dunque di risolvere
a3 − 4a2 + 8√ =0 3
Alternativamente, sfruttando la conoscenza esplicita di γa e βa (vedi√Esercizio 4.5), si risolve in√a ∈ (a1 , a2 ) l’equazione γa = 1/2. Si ottiene b1 = 1 + 5, γb1 = 1/2, βb1 = 1 + 5 /4. o procedere in modo analogo. Tuttavia la Per la determinazione dei valori bk si pu` k risoluzione in a ∈ (ak , ak+1 ) dell’equazione (ha )2 (1/2) = 1/2 `e delicata. Comunque la superattrattivit` a del 2k ciclo corrispondente ad a = bk `e garantita dal Teorema 3.69. Soluzione 4.11
I punti di un’orbita di periodo 3 risolvono l’equazione x ∈ [0, 1] :
ha (ha (ha (x))) = x 3
e
ha (x) = x.
Per a vicino ad aω il grafico di (ha ) presenta il seguente comportamento qualitativo: `e simmetrico rispetto ad x = 1/2 che `e punto di minimo relativo, vi sono 4 mode (massimi relativi), le radici complesse di (ha )3 (x) = x sono 8, le eventuali radici reali sono tutte in [0, 1] (Teorema 4.1). Se a < aω le radici reali di (ha )3 (x) = x sono solo due (gli equilibri di ha ), dunque non vi sono orbite 3 periodiche. Se a = aω allora le radici reali distinte di (ha )3 (x) = x sono 5 di cui tre doppie dovute ai punti di tangenza. Poich´e 3 `e un numero primo le radici doppie corrispondono necessariamente ad un’orbita 3 periodica. Se a > aω , vi sono 8 radici reali distinte. Necessariamente, quelle che non sono punti fissi di ha sono due orbite 3 periodiche, di cui una stabile, l’altra instabile, come si pu` o verificare graficamente osservando le pendenze nei punti di attraversamento della bisettrice (si veda la Figura 8.12). Dunque, il valore a = aω `e di biforcazione per ha , differente da quelli classificati nel paragrafo 4.3. Sfruttando le informazioni contenute nel diagramma di biforcazione riportati nelle Figure 4.13 e 4.14 si ottengono numericamente i valori del 3 ciclo con a = 3, 84 :
8.4 Soluzioni degli esercizi del Capitolo 4
327
{0, 1494, 0, 4880, 0, 9594} approssimato a 4 cifre decimali. Si verifica numericamente che tale 3 ciclo `e stabile (Teorema 3.69): h3,84 (0, 1494) h3,84 (0, 4880) h3,84 (0, 9594) = −0, 87552 .
Figura 8.12 Grafici di (ha )3 con a vicino ad aω nei casi: a < aω , a = aω , a > aω Soluzione 4.12 Risolvendo fa (x) = x si trovano 3 equilibri per a > 1 ed 1 solo per a ≤ 1 ; inoltre si ha una sola orbita 2 periodica (α1 , α2 ) per ogni a > 0, dove αj sono le soluzioni diverse da 0 di fa (x) = −x. Soluzione 4.13 Una possibile descrizione `e data dal sistema dinamico discreto seguente {[0, 2π), (θ + π/30) mod 2π} in cui la variabile angolare θ `e misurata in radianti. Tutte le orbite di tale s.d.d. sono periodiche (di periodo 60) e dunque le orbite periodiche sono dense. Il s.d.d. non `e topologicamente transitivo perch´e se θ0 = ψ + hπ/30, ∀h ∈ {0, 1, . . . , 59}, allora le traiettorie di dato iniziale θ0 hanno una minima distanza positiva da ψ. Infine, vi `e dipendenza sensibile dai dati iniziali perch´e per ogni ε > 0 se θ0 < π/30 < ϕ0 e ϕ0 − θ0 < ε allora, chiamando θk e ϕk rispettivamente la traiettoria di punto iniziale θ0 e ϕ0 , si ha θ60 − ϕ60 > 59π/30. Concludendo, la dinamica non `e caotica. Tuttavia, la dipendenza sensibile dai dati iniziali ` e in certa misura sorprendente. In effetti, la funzione che descrive il s.d.d. non `e continua; ci` o nonostante, `e possibile descrivere in modo pi` u soddisfacente il movimento della lancetta modellandolo con un altro s.d.d. (la scelta di un modello `e altrettanto importante della sua analisi): consideriamo l’insieme S = {z ∈ C : |z| = 1} cio`e la circonferenza unitaria del piano complesso (ricordiamo che tutti i suoi punti hanno la forma eiθ con θ ∈ R) e la iθ = ei(θ+π/30) , continua rispetto alla distanza funzione f : S → S definita da f e tra numeri complessi; allora, il s.d.d. {S, f } descrive in modo pi` u soddisfacente il moto della lancetta dei secondi (si vedano l’Esempio 4.21 e il paragrafo 4.7). Anche il s.d.d. {S, f } ha le orbite periodiche dense e non `e topologicamente transitivo, dunque non ha dinamica caotica; per` o, a differenza del precedente, non ha dipendenza sensibile dai dati iniziali: |θk − ϕk | = |θ0 − ϕ0 |
∀θ0 , ϕ0 ∈ S e ∀k ∈ N.
328
8 Soluzioni degli esercizi
Soluzione 4.14 A differenza dell’Esercizio precedente, in questo caso la variabile significativa `e quella angolare θ ∈ R considerata modulo π 2π con riferimento alla posizione nel quadrante ed il s.d.d. `e {A, g} con A = h , h = −59, . . . , +55 e 30 g : A → A tale che, a partire da X0 = 0, risulta Xk = gk (0) con Xk = −kπ/30
se k = 0, 1, . . . , 59
X60 = π/6, X61 = 4π/30 , . . . , X65 = 0, X66 = −π/30, X67 = −2π/30, . . . , X119 = −54π/30X120 = π/3, X121 = 9π/30, . . . Le altre traiettorie si deducono da quella di dato iniziale 0. Xk descrive un moto periodico con periodo 720. A `e un insieme finito, tutte le orbite sono periodiche e dunque sono dense. Tutte le traiettorie percorrono tutto A, dunque il sistema `e topologicamente transitivo. Infine, non pu` o esservi dipendenza sensibile dai dati iniziali per alcun s.d.d. il cui dominio ha un numero finito di punti. Soluzione 4.15 Sappiamo esplicitare il termine generale: Xk = 10k X0 , ∀X0 ∈ R. Dunque, il s.d.d. non `e topologicamente transitivo ed `e privo di orbite periodiche; in particolare, la dinamica non ` e caotica. Tuttavia si ha dipendenza sensibile dai dati iniziali perch´e un errore comunque piccolo nella misura di X0 viene amplificato enormemente: 0 = ε > 0 se X0 − X
k = 10k ε . allora Xk − X
In altre parole, poich´e ad ogni iterazione si sposta la virgola verso destra di una posizione nella rappresentazione decimale di X0 , per calcolare tutti i valori di Xk occorre conoscere X0 con precisione infinita, cio`e avere a disposizione tutte le cifre della sua rappresentazione decimale. Soluzione 4.16 E = {x ∈ R : x = h2n ; h, n ∈ N, h ≤ 2n }, k0 (h2n ) = n. Soluzione 4.18 L’insieme di Cantor `e del tipo
1 medio, dunque 3
S2 (x) = 1 + (x − 1) /3
S1 (x) = x/3
ρi = 1/3 , i = 1, 2. s 1 = 1, da cui La dimensione s di C verifica dunque l’equazione 2 3 dimH (C) = dimB (C) = (ln 2) / (ln 3) . Per l’insieme Ct di tipo Cantor t medio abbiamo S1 (x) =
1−t x 2
S2 (x) = 1 +
si ottiene l’equazione 2
1−t 2
1−t (x − 1) 2
ρi =
1−t , i = 1, 2 2
s = 1, da cui
dimH (Ct ) = dimB (Ct ) =
ln 2 . ln 2 − ln (1 − t)
8.4 Soluzioni degli esercizi del Capitolo 4
329
Soluzione 4.19 Dall’esercizio precedente dimH A = 1/2. Usando come ricoprimento i quadrati che intervengono nella costruzione iterativa √ di A√× A alla iterazione k-esima si ottiene la disuguaglianza H1δ (A × A) ≤ 4k 4−k 2 = 2. D’altro canto, le proiezioni di questi stessi quadrati sulle rette perpendicolari di equazione y = 2x e √ y = −x/2 sono segmenti di lunghezza 3/ 2. Ne segue √ 3 √ ≤ H1δ (A × A) ≤ 2 5
∀δ > 0
√ 3 √ ≤ H1 (A × A) ≤ 2 . 5 Dunque la dimensione di Hausdorff di A × A `e 1. Pur avendo dimensione intera `e tutt’altro che un insieme elementare, e non corrisponde affatto all’idea intuitiva di linea unidimensionale.
Figura 8.13 Prodotto di insiemi di Cantor: C1/2 × C1/2 (terza iterazione)
Soluzione 4.20 dimH (Q) = dimB (Q) = 2 ln 2/ ln 3. Soluzione 4.21 dimH (W ) = dimB (W ) = 1. L’esempio mostra che esistono sottoinsiemi del piano con dimensione di Hausdorff pari a 1 che non presentano alcuna delle propriet` a intuitive di una curva elementare. Soluzione 4.22 ϕ ◦ f ◦ ϕ−1 = g.
Da ϕ (x) = x − b/ (1 − a) seguono ϕ−1 (x) = x + b/ (1 − a) e
Soluzione 4.23 Tra i quattro s.d.d. {R, x/2}, {R, 2x}, {R, x} e {R, x + 1} non vi `e alcuna coppia di s.d.d. topologicamente coniugati. L’affermazione si deduce dal Teorema 4.42.
330
8 Soluzioni degli esercizi
Soluzione 4.24 Se f : I → I, g : J → J e ϕ : I → J `e la coniugazione topologica, con t = ϕ ( x), si ha: g t = g (ϕ ( x)) = = ϕ (f ( x)) = = ϕ ( x) = t.
ϕ` e una coniugazione topologica
x ` e un punto fisso
Soluzione 4.25 Se t ∈ ϕ (H) esiste x ∈ H tale che t = ϕ (x); per tali valori risulta, per ipotesi, ϕ−1 (t) = x < f (x) = f ϕ−1 (t) . Applicando ϕ ad ambo i membri di ϕ−1 (t) < f ϕ−1 (t) e tenendo conto della monotonia di ϕ t = ϕ ϕ−1 (t) < ϕ f ϕ−1 (t) = g (t) . Si noti che nel caso ϕ decrescente si sarebbe provato con la stessa tecnica: t > g (t).
Figura 8.14 Due mappe unimodali in [0, 1] associate a s.d.d. non topologicamente coniugati Soluzione 4.26 Vi sono vari modi di provarlo. I modo: basta osservare (vedi Figura 8.14) che h4 e g hanno un differente numero di punti fissi (rispettivamente 2 e 3). II modo: per l’esercizio precedente, se esistesse una coniugazione topologica ϕ crescente allora h4 (x) − x e g (x) − x dovrebbero avere lo stesso segno in un intorno destro di 0, conclusione falsa; se esistesse ϕ decrescente, allora h4 (x) − x e g (x) − x dovrebbero avere segno opposto vicino a 0, che `e falso. Le due dinamiche sono effettivamente diverse: in particolare 0 `e repulsivo per h4 , mentre `e localmente attrattivo per g. Soluzione 4.27 Siano f e ϕ monot` one crescenti. Allora per ogni t1 , t2 ∈ ϕ (H) con t1 < t2 esistono x1 , x2 ∈ H tali che x1 < x2 e ϕ1 (x1 ) = t1 , ϕ2 (x2 ) = t2 , g (t1 ) = ϕ f ϕ−1 (t1 ) = ϕ (f (x1 )) < ϕ (f (x2 )) = ϕ f ϕ−1 (t2 ) = g (t2 ) .
8.4 Soluzioni degli esercizi del Capitolo 4
331
Gli altri tre casi si trattano allo stesso modo (si ricordi che ϕ `e sempre monot` ona). Soluzione 4.28 Se I `e aperto esiste ϕ : I → R continua con inversa continua. Il Teorema 4.4 si applica a {R, g} dove g = ϕ ◦ f ◦ ϕ−1 e per il Teorema 4.42 la dinamica di {R, g} ha le stesse propriet` a della dinamica di {I, f }. Soluzione 4.29 Il problema di Cauchy ammette un’unica soluzione u(t) =
−1 1 − u0 b(t0 −t) 1+ e , u0
cio`e una funzione monotona strettamente crescente in [0, +∞) , di cui esiste il limite limt→+∞ u(t) = 1 . Metodo di Eulero esplicito Fissato il parametro di discretizzazione h > 0 si ottiene lo schema ricorsivo U0 = u0 ∈ (0, 1) ,
Uk+1 = (1 + bh) Uk − b h (Uk )2 , k ≥ 1 .
La funzione f (x) = (1 + bh)x − bhx2 si annulla in 0 ed in x = 12 + (bh)−1 ed3 ha massimo uguale a (1 + bh)2 /(4bh), dunque f trasforma l’intervallo 0, 1 + (bh)−1 in un proprio sottoinsieme per ogni h ∈ (0, 3/b). Analizziamo in dettaglio la soluzione prodotta% dallo schema numerico nel caso 0 < h < 3/b . & I s.d.d. [0, 1 + (bh)−1 ], f e {[0, 1], ha } , dove a = 1 + bh , sono topologicamente 1 + bh bh x , ϕ−1 (x) = x , cio`e coniugati, tramite la funzione ϕ , con ϕ(x) = 1 + bh bh ϕ ◦ f ◦ ϕ−1 (x) = h1+bh (x) . Al variare di h in (0, 3/b), il parametro della logistica a = 1 + bh varia in (1, 4). Dunque vi `e sempre l’equilibrio αa della logistica, che risulta globalmente asintoticamente stabile se 0 < h ≤ 2/b (superattrattivo se h = 1/b) al quale le traiettorie si avvicinano con velocit` a esponenziale e con la corretta%monotonia se e solo & se 0 < h ≤ 1/b. Osserviamo esplicitamente che l’equilibrio di (0, 1 + (bh)−1 ), f , corrispondente nella coniugazione topologica ad αa , `e x = 1 (cio`e coincide con il valore del limite, per t tendente a +∞, della soluzione continua u) inoltre, se 0 < h ≤ b−1 il valore 1 `e anche anche limite monotono, per k tendente a +∞, della successione Uk corrispondente alla soluzione discreta. Riassumiamo le principali informazioni qualitative che si possono trarre dalla coniugazione topologica con la logistica discreta di cui si `e descritta la dinamica nel Capitolo 4. La discretizzazione con lo schema di Eulero esplicito d` a una buona descrizione della soluzione del problema in esame, se e solo se 0 < h ≤ b−1 . Se b−1 < h ≤ 2b−1 , allora la soluzione numerica `e data da una successione che converge ad 1 in modo oscillante. Se h > 2b−1 , allora 1 cessa di essere attrattivo per il s.d.d. associato ad f e, al crescere di h, compaiono oscillazioni periodiche di tutti i periodi interi (oscillazioni numeriche, che non hanno riscontro nella soluzione esatta), finch´ e, all’approsssimarsi di h a 3b−1 , la soluzione numerica ha un comportamento caotico (le traiettorie han-
332
8 Soluzioni degli esercizi
no un andamento erratico nell’intervallo (0, 1)) dunque `e ben lontana dal descrivere il comportamento monot` ono della soluzione esatta. Se h > b−1 alle traiettorie erratiche se ne aggiungono altre divergenti a −∞ . Metodo di Eulero implicito Fissato il parametro di discretizzazione h > 0 si ottiene lo schema ricorsivo bh (Vk+1 )2 + (1 − bh) Vk+1 − Vk = 0 ,
V0 = u0 ∈ (0, 1) ,
k ≥ 1.
Ad ogni passo `e necessario risolvere un’equazione di secondo grado in Vk+1 con Vk noto. Per effettuare la scelta tra le due soluzioni algebriche, ricordiamo che la soluzione (crescente) dell’equazione differenziale deve assumere valori positivi, inoltre il discriminante `e maggiore di zero per ogni h > 0, e vi sono sempre una variazione ed una permanenza (che garantiscono una radice positiva ed una negativa). Scegliamo dunque l’unica radice positiva: Vk+1 = g(Vk ) ) 1 −1 + bh + (1 − bh)2 + 4bh x 2bh La funzione g trasforma l’intervallo [0, 1] in s´e. Il s.d.d. {[0, 1], g} ha un solo equilibrio (x = 1) (oltre allo 0 che `e repulsivo). Risulta g ∈ C 1 , g (1) = (1+bh)−1 , 0 < g (1) < 1 per ogni h > 0. Dunque (Teorema 3.51) x = 1 `e stabile ed attrattivo (il suo bacino `e (0, 1]) e, per ogni h > 0, tutte le traiettorie generate dallo schema numerico di Eulero implicito convergono ad 1 (in modo monotono) per t che tende a +∞ ; andamento questo che `e in buon accordo con la soluzione esatta dell’equazione differenziale. g(x) :=
Dunque lo schema di Eulero implicito, pur richiedendo la soluzione di una equazione non lineare, `e pi` u soddisfacente perch`e fornisce una buona approssimazione della soluzione esatta (Vk `e una approssimazione di u(kh)), senza particolari restrizioni sul passo di discretizzazione h. Il fatto che si sia riusciti a determinare esplicitamente per h un intervallo di valori in cui la discretizzazione `e soddisfacente anche se effettuata con il metodo di Eulero esplicito, dipende dalla particolare scelta dell’equazione differenziale di cui sono ben note la soluzione esatta e la dinamica associata alla corrispondente discretizzazione. Tutto questo non `e noto per generiche equazioni differenziali non lineari (altrimenti sarebbe inutile fare approssimazioni numeriche ...). Nel caso generale di una equazione differenziale ordinaria autonoma u = F (u) con dato iniziale u0 ed F limitata (|F | ≤ L), il metodo di Eulero implicito conduce alla situazione seguente: Vk+1 − h F (Vk+1 ) − Vk = 0 d (Id − h F ) = 0 du
se h < L−1 .
Dunque Id−hF `e localmente invertibile. Sia g = (Id − hF )−1 l’inversa locale. Allora risulta α = g(α) se e solo se F (α) = 0 ; cio`e α `e un equilibrio (α = g(α) ) del s.d.d. sse u(t) ≡ α `e la soluzione del problema di Cauchy con u0 = α . Poniamo Vk+1 = g(Vk )
k≥1
8.5 Soluzioni degli esercizi del Capitolo 5
333
Da g = (1 − hF )−1 ◦ g segue g (α) =
1 1 = . 1 − hF (g(α)) 1 − hF (α)
Concludendo, se F (α) < 0, allora 0 < g (α) < 1 , α `e stabile per il s.d.d. associato a g e Vk α . Cio`e il metodo di Eulero implicito `e stabile ed accurato per ogni h ∈ (0, L−1 ) . Soluzione 4.30 ex − 3 `e convessa e di classe C ∞ ; e1 = e < 3 < e5/4 , dunque applicando i Teoremi 4.48 e 4.49 vi `e un unico zero α = ln 3 = 1, 09861... in (1, 5/4) che `e semplice e, dunque, superattrattivo per il metodo di Newton. Scelto X0 = 5/4 abbiamo max[1,5/4] g = e5/4 , min[1,5/4] g = e, dunque vale la stima dell’errore √ 0 < Xk+1 − α < 4 e (Xk − α)2 /2 e da X1 − X0 < 1/4 segue 0 < Xk+1 − α < 4−2k < 10−3 se k = 3. Iterando Ng (x) = x − 1 + 3e−x si ottiene 1, 098 < α < 1, 099. Soluzione 4.31 Se |z| > |c| + 1, q (z) = z 2 + c, allora: |q (z)| = z 2 + c ≥ ≥ z 2 − |c| ≥
disuguaglianza triangolare
≥ (|c| + 1)2 − |c| = |c|2 + |c| + 1. Dunque 2 q (z) = |q (q (z))| = |q (z)|2 + c ≥ 2 ≥ |q (z)|2 − |c| ≥ |c|2 + |c| + 1 − |c| = = |c|4 + 2 |c|3 + 3 |c|2 + |c| + 1 ≥ ≥ 3 |c|2 + |c| + 1. Per induzione, si ottiene k k 2 q (z) ≥ 2 − 1 |c| + |c| + 1. Poich´e il membro di destra della disuguaglianza tende a +∞ se k diverge, si ottiene la tesi.
8.5 Soluzioni degli esercizi del Capitolo 5 Soluzione 5.1 1) Gli autovalori di M sono λ1 = 1 e λ2 = 2 a cui corrispondono, rispettivamente, gli autovettori (linearmente indipendenti) 2 3T V1 = 1 0
2 3T V2 = 3 1 .
334
8 Soluzioni degli esercizi
La soluzione generale del sistema `e quindi 0 1 0 1 0 1 1 c1 + 3c2 2k k 3 + c2 2 = Xk = c1 0 1 c2 2k
k∈N.
Imponendo la condizione iniziale, si ricavano i valori delle costanti: c1 = −5, c2 = 2. Si noti che data la forma triangolare della matrice M si poteva procedere pi` u rapidamente risolvendo la seconda equazione del sistema e successivamente la prima, dopo aver sostituito la soluzione trovata al primo passo. ⎡ ⎤ ⎡ ⎡ ⎤ ⎤ 4 0 0 k k 2) Xk = ⎣ 4 ⎦ + 5 (−1) ⎣ −1 ⎦ − 6 (−3) ⎣ 0 ⎦ k∈N. 1 1 1 ⎡ ⎤ ⎡√ ⎤ 0 2−1 √ k k∈N. 3) Xk = 3 (−1)k ⎣ 1 ⎦ − − 2 ⎣ 0 ⎦ 0 1 Soluzione 5.3 Ricordiamo l’identit` a det L = det LT . La formula (D.2) dell’Appendice D, detta sviluppo di Laplace del determinante rispetto alla riga i-esima, o essere calcolato in modo applicato alla matrice LT ci assicura che il determinante pu` analogo sviluppando rispetto ad una qualunque colonna. Applicando tale sviluppo rispetto all’ultima colonna, si ottiene det L = (−1)1+n ϕn det diag {σ1 , σ2 , . . . , σn−1 } .
Soluzione 5.4 Per il Teorema di Frobenius-Perron e l’Osservazione 5.20 la matrice A ha un autovalore dominante strettamente positivo λA = 1/2 (poich´e la matrice A ha rango 1 tutti gli altri autovalori sono nulli). Poich´ e A O, B 0 il Teorema 5.28 assicura che il s.d.d. vettoriale ha un unico equilibrio stabile e attrattivo dato da A = (I − A)−1 B. La soluzione generale `e data da Xk = 1/n2k U (X0 − A) + A dove U `e la matrice i cui elementi sono tutti pari a 1. Soluzione 5.5 a) Applicando l’Osservazione 5.20 alla matrice debolmente positiva M si deducono le disuguaglianze 7 ≤ λM ≤ 9. b) Con riferimento agli Esempi 5.34 e 5.36, vale M = tB con t numero reale da determinare. Risolvendo il sistema: t − 2αt = 5 tα = 2 si ottiene α = 2/9 e t = 9. Da 0 < 2/9 < 1/4 si deduce che la matrice M `e definita positiva e λk (M) = 9λk (B) = 9 − 8 sin
kπ 2 (N + 1)
2 1≤k≤N .
In particolare 1 ≤ λk (M) ≤ 9 per ogni k, qualunque sia la dimensione di M .
8.5 Soluzioni degli esercizi del Capitolo 5
335
Soluzione 5.7 Poich´e M = S + T e ST = TS, impiegando la formula del binomio di Newton (che vale se gli addendi commutano), si pu` o scrivere k
k j k−j ; Mk = (S + T)k = S T j j=0 ma T2 = O e quindi Tk = O per ogni k ≥ 2, da cui Mk = Sk T0 + kSk−1 T = Sk + kSk−1 T. In modo analogo si pu` o provare la relazione (5.7) utilizzata nella dimostrazione del Teorema 5.8. Soluzione 5.8 λ risolve det (A − λI) = 0, cio`e `e radice di un polinomio a coefficienti reali. Ricordando che A `e reale 0 = det (A − λI) = det A − λI = det A − λI cio`e anche λ `e autovalore di A. Poich´e A `e reale, AV = λV con V = 0 implica V∈ / Rn
e
AV = AV = λV = λ V
cio`e V = 0 `e autovettore relativo all’autovalore λ e V, V ∈ Cn \Rn . Posto V1 =
1 V−V = Im (V) 2i
V2 =
1 V+V = Re(V) 2
allora V1 , V2 ∈ Rn e 1 λV−λV = Im (λV) = b Re (V) + a Im (V) = aV1 + bV2 2i 1 λV+λV = Re (λV) = a Re (V) − b Im (V) = −bV1 + aV2 AV2 = 2 % 2 & 3 cio`e, riscrivendo A nella base V1 , V2 , posto U−1 = V1 V2 , si ottiene AV1 =
B = UAU−1 =
0
a −b b a
1 .
Infatti le colonne della matrice associata ad una applicazione lineare sono le immagini (rispetto alla stessa base) dei vettori della base. Se λ = 0, allora a = b = 0 e B = O. Se 0 = λ = a + ib = ρeiθ con ρ > 0, allora: 0 1 0 10 1 0 1 a −b ρ0 cos θ − sin θ cos θ − sin θ B= = =ρ . b a 0ρ sin θ cos θ sin θ cos θ Soluzione 5.9 B `e una matrice che verifica le ipotesi del Teorema 5.13 (se σ1 , . . . , σn−1 e ϕ1 , . . . , ϕn−1 sono strettamente positivi). Per l’Osservazione 5.22, det L = 0 e det B = 0. Dunque l’autovalore dominante λB e l’autovettore dominante VB di B, sono tali anche per L (che aggiunge agli autovalori di B il solo autovalore nullo
336
8 Soluzioni degli esercizi
perch´e det L = 0): λL = λB
VL =
0
VB t
1 t∈R.
Rimane da provare che t > 0 (per avere VL 0): esplicitamente da LVL = λVL B segue t = λL−1 σn−1 Vn−1 > 0. Studiando la dinamica del sistema Xk+1 = BXk il Teorema 5.18 assicura che la ripartizione in classi di et` a che si osserva sul lungo periodo `e quella fornita dal vettore VL . Soluzione 5.10 Utilizzando l’Osservazione 5.20 sulle righe per A e sulle colonne per B si ottiene: 5 ≤ λB ≤ 6 . λA = 10 2 3T , k ∈ N. Soluzione 5.11 Xk = 2k 0 (−1)k+1
8.6 Soluzioni degli esercizi del Capitolo 6 2 3T Soluzione 6.1 Dobbiamo determinare un vettore U = U1 1 − U1 , dove U1 appartiene a [0, 1], tale che U = MU, cio`e U1 sia soluzione del sistema b aU1 + b (1 − U1 ) = U1 ⇒ U1 = . (1 − a) U1 + (1 − b) (1 − U1 ) = 1 − U1 1+b−a Poich´e b > 0 e 1 − a > 0 segue U1 ∈ (0, 1) e quindi U `e un vettore stocastico strettamente positivo. Soluzione 6.2 Definiamo i seguenti eventi: E1 E2 E3 E4
= = = =
“gli “gli “gli “gli
interrutori interrutori interrutori interrutori
A e D sono chiusi” A, C, E sono chiusi” B, C, D sono chiusi” B e E sono chiusi”.
L’affidabilit` a `e allora data da: P (E1 ∪ E2 ∪ E3 ∪ E4 ). Dall’ipotesi di indipendenza si ricava: P (E1 ) = ad P (E2 ) = ace P (E3 ) = bcd P (E4 ) = be P (E1 ∩ E2 ) = acde
P (E1 ∩ E3 ) = abcd P (E1 ∩ E4 ) = abde
P (E2 ∩ E3 ) = abcde P (E2 ∩ E4 ) = abce P (E3 ∩ E4 ) = bcde P (E1 ∩ E2 ∩ E3 ) = P (E1 ∩ E2 ∩ E4 ) = P (E1 ∩ E3 ∩ E4 ) = P (E2 ∩ E3 ∩ E4 ) = = P (E1 ∩ E2 ∩ E3 ∩ E4 ) = abcde Possiamo cos`ı concludere, grazie al principio d’inclusione-esclusione (si veda il punto 7 dell’Appendice C), che l’affidabilit` a del ponte di Wheatstone `e: P (E1 ∪ E2 ∪ E3 ∪ E4 ) = = ad + ace + bcd + be − acde − abcd − abde − abce − bcde + 2abcde .
8.6 Soluzioni degli esercizi del Capitolo 6
337
Soluzione 6.3 Una matrice di permutazione ha su ogni riga e su ogni colonna un solo elemento uguale ad 1 e tutti gli altri nulli. Se l’elemento tij di T vale 1, allora per ogni vettore V, la componente i di TV `e uguale alla componente j di V: l’effetto della moltiplicazione per V `e una permutazione delle componenti di V. In particolare, T `e anche una matrice di cambio di coordinate ortogonale: T−1 = TT . Soluzione 6.4
I tre autovalori di M sono distinti: λ1 = 1;
λ2 =
1 ; 2
λ3 =
1 . 4
Allora grazie alla rappresentazione (6.10) di Pk = Mk P0 ed alla osservazione che (k) o la colonna h-esima di Mk `e uguale ad Mk e0 , sappiamo che il termine m23 si pu` esprimere nella forma k k 1 1 (k) +c m23 = a + b 2 4 (0)
(1)
con a, b, c costanti da determinare. Poich´e m23 = 0 , m23 = 1/2 e, come si verifica (2) agevolmente col calcolo di M2 , m23 = 3/8 si ottiene il sistema lineare ⎧ a+b+c= 0 ⎪ ⎪ ⎪ ⎨ 1 1 1 a+ b+ c= 2 4 2 ⎪ ⎪ ⎪ ⎩a + 1b + 1 c = 3 4 16 8 le cui soluzioni sono a = 0, b = 2, c = −2 . Soluzione 6.5 Sia H = TMT−1 = TMTT. Allora da mij = [M ]ij ≥ 0, tij = [T ]ij ≥ 0 n n per ogni i e j, segue hij = [H]ij ≥ 0 per ogni i e j. Inoltre, da tij = mij = 1 i=1
i=1
per ogni j, segue n
hij =
i=1
n
tis msk tjk = 1
∀j .
i,s,k=1
In altre parole, il cambio di coordinate indotto dalla matrice di permutazione T corrisponde a porre hij = mt(i),t(j) dove t (s) `e la posizione di colonna nella riga s di T in cui si ha l’elemento 1. Soluzione 6.6 Definiti gli eventi Hi = “un pezzo scelto a caso `e stato prodotto dalla macchina i” , A = “un pezzo scelto a caso `e difettoso” , per determinare la soluzione ricaviamo dal diagramma ad albero della Figura 8.15 le probabilit` a P (Hi ) =
ri r
P (A|Hi) =
di ri
i = 1, 2, 3 .
Dalla legge di Bayes, ricaviamo cos`ı la probabilit` a che il pezzo difettoso provenga
338
8 Soluzioni degli esercizi
dal macchinario i: P (Hi |A) =
di d1 + d2 + d3
i = 1, 2, 3
che `e il rapporto tra il numero dei pezzi difettosi da essa prodotti ed il totale dei pezzi difettosi.
Figura 8.15 Diagramma ad albero relativo all’Esercizio 6.5 Soluzione 6.7 Questa volta la moneta non `e equa... Soluzione 6.8 Se a > b = 0, 5 e c > 0, allora C ha maggior possibilit` a di A anche se a = 1 (cio`e A tiratore infallibile). Infatti, se a = 1 allora B `e spacciato ed il duello si conclude comunque in pochi turni. Precisamente P (A vince) = 0, 5 (1 − c)2 , P (C vince) = 0, 5(1 + c) P (A muore) = 0, 5 + 1, 5c − c2 , P (B muore) = 1, P (A tutti muoiono) = c (1 − c) . Invece, se a < 1, allora fissato c, occorre ridurre b fino a che le probabilit` a di vittoria di A superano quelle di C; ci` o `e possibile solo per piccoli valori di c: con riferimento all’Esempio 6.25, si deve imporre 2 3 P∞ > P∞ P (E2 ) > P (E3 ) ossia 2 1 P∞ > P∞ P (E2 ) > P (E4 ) ⎡
⎤ 001 Soluzione 6.11 La matrice di permutazione T = ⎣ 1 0 0 ⎦ ha autovalori 010 √ λ1 = 1, λ2,3 = −1 ± i 3 /2. Tutti gli autovalori hanno modulo pari a 1. L’autovalore λ1 non `e dominante, λ2 e λ3 non sono reali. Si noti che la catena di Markov associata a T presenta il 3 ciclo 2 3T 2 3T 3T 2 . 100 , 010 , 001 Inoltre, reale di T in opportune coordinate `e data da ⎡ la forma di Jordan ⎤ 1 0 0 √ −1/2 − 3/2 ⎦ e mostra che un generico cambio di coordinate non conserva J = ⎣0 √ 0 3/2 −1/2 la propriet` a di essere una matrice stocastica o di transizione.
8.7 Soluzioni degli esercizi del Capitolo 7
1-p
14-15 batte A
339
14-15 batte B
p
p 1-p
parità batte A
p p
1-p
p
vince A
p
vant.A batteA
1-p p
1-p
parità batte B
vant.A batte B
vant.B batte A
1-p
1-p p
vant.B batte B
1-p
vince B
Figura 8.16 Set di pallavolo a partire dal punteggio 14–15
Soluzione 6.12 La Figura 8.16 mostra il grafo relativo al set di pallavolo dove le situazioni di 15 pari e vantaggio pari sono considerate equivalenti. Dal grafo si deducono facilmente le altre risposte. Soluzione 6.13 Se C spara ad A, le sue probabilit` a di sopravvivenza sono 59/189. Se C spara a B, le sue probabilit` a di sopravvivenza sono 50/189 (si deve tener presente che: che quando viene il turno di B, questi deve sparare ad A se A `e vivo; quando viene il turno di A, questi deve sparare ad B se B `e vivo). Dunque a C conviene sparare in aria: questo gesto magnanimo gli concede ben 25/63 di probabilit` a di sopravvivere.
8.7 Soluzioni degli esercizi del Capitolo 7 Soluzione 7.2 (a) L’identit` a In ovviamente non `e riducibile se n > 1. (b) Fra le matrici di permutazione di ordine n, tutte e sole le n − 1 matrici di permutazione di ordine n associate ad una permutazione ciclica sono irriducibili. Infatti, se esiste un elemento lasciato fisso dalla permutazione, allora la matrice associata `e riducibile. Se non esistono elementi fissi ma la permutazione non `e ciclica allora esiste un elemento che per effetto della permutazione percorre un ciclo di lunghezza maggiore o uguale a 2 e strettamente minore di n, dunque la matrice associata `e riducibile. Infine, se T = In `e una fissata permutazione ciclica di ordine n allora le sue potenze T0 , T, T2 , . . . , Tn−1 sono le matrici associate a tutte le n permutazioni cicliche di n elementi. Ne segue
(In + T)
n−1
=
n−1
k=0
n−1 k T O k
(8.2)
340
8 Soluzioni degli esercizi
L’ultima disuguaglianza `e motivata dal fatto che per ogni i e j esiste una iterata di ordine k della permutazione ciclica T che manda j in i, cio`e esiste k dipendente da (k) i e j tale che tij = 1. Essendo T ≥ 0 la validit` a della (8.2) `e condizione necessaria e sufficiente per l’irriducibilit` a di T (vedi Teorema 7.28). Soluzione 7.3 Calcoliamo il polinomio caratteristico P (λ) = det (T − λIn ) mediante la formula n
ε (σ) bi,σ(i) det B = σ
i=1
dove la somma `e estesa a tutte le permutazioni σ di n elementi ed ε (σ) `e la segnatura di tali permutazioni. Se T = In allora P (λ) = (λ − 1)n . Se T `e associata ad una permutazione ciclica diversa dall’identit` a, allora P (λ) = λn − 1. Negli altri casi, a meno di una permutazione S delle coordinate, la matrice ha una struttura a blocchi quadrati irriducibili sulla diagonale, orlati da zeri: ⎤ ⎡ A1 ⎥ ⎢ A2 ⎥ ⎢ ⎥ ⎢ −1 A 3 A = STS = ⎢ dim Aj = kj . ⎥ ⎥ ⎢ . .. ⎦ ⎣ Am La costruzione esplicita si ottiene considerando tutti i cicli di periodo kj contenuti nella permutazione σ. Soluzione 7.6 Se nella Definizione 7.4 la dimensione della sottomatrice nulla di A `e (n − r) × r, con 0 < r < n, allora: (n − r) × r − (n − 1) = (r − 1) (n − r − 1) ≥ 0. Soluzione 7.17. Dall’analisi del grafo GM corrispondente si deduce che esso `e fortemente connesso, perch´e esiste il ciclo {1, 2, 3, 4, 1}, quindi la matrice M `e irriducibile. Soluzione 7.19. No, non riesce. Precisamente, se si analizza il problema con la ⎡ 0 1 0 ⎢ 1 0 0 ⎢ A = ⎢ ⎢ 0 1 0 ⎣ 1 1 1 1 0 0
matrice di adiacenza del grafo ⎤ 0 1 1 0 ⎥ ⎥ 0 0 ⎥ (8.3) ⎥ 0 0 ⎦ 0 0
si ottiene λA = 1, 905166 , xA = [ 0, 396483 0, 5472576, 0, 287249 0, 646133 0, 208109 ] . Se si analizza il problema con la matrice resa stocastica normalizzando le colonne: ⎡ ⎤ 0 1/3 0 0 1 ⎢ 1/3 0 0 1 0 ⎥ ⎢ ⎥ M = ⎢ 0 1/3 0 0 0 ⎥ (8.4) ⎢ ⎥ ⎣ 1/3 1/3 1 0 0 ⎦ 1/3 0 0 0 0
8.7 Soluzioni degli esercizi del Capitolo 7
341
si ottiene λM = 1 , xM = [ 0, 176470 0, 352941, 0, 117647 0, 294117 0, 058823 ] . Si noti che l’operazione ha migliorato lievemente l’indice di significativit` a (molto meno con l’uso di M) ed ha consentito di superare (solo) la pagina P3 che aveva un indice identico: l’esempio illustra come tale operazione non consenta di aggirare differenze molto significative in termini di link.
Appendice A - Somme e serie
1) 2) 3) 4) 5)
n k=0 n
Ak = A0 + A1 + · · · + An Ak =
k=0 n m
n+r
Ak−r
k=r
Ak,j =
n m
Aj,k
k=s j=t n
j=t k=s n
k=0 n
k=0
cAk = c
Ak
(Ak + Bk ) =
k=0
n
Ak +
k=0
n
Bk
k=0
6) Sommazione per parti n
n−1
s n Ak Bk = Bn Ak − (Bs+1 − Bs ) Ak k=0
7) 8) 9) 10) 11) 12) 13) 14)
n k=0 n
k=0
1−x 1−x
n+1
xk =
s=0
∀x = 1
1 n (n + 1) 2 1 k2 = n (n + 1) (2n + 1) 6 k=1 n 1 k3 = n2 (n + 1)2 4 k=1 n 1 k4 = n (n + 1) (2n + 1) 3n2 + 3n − 1 30 k=1 n 1 2 k5 = n (n + 1)2 2n2 + 2n − 1 12 k=1 n 1 Γ (n + 1) =γ+ = γn + ln n n! k=1 k n Γ π2 1 − = (n + 1) 2 k 6 Γ k=1 k=1 n
k=
k=0
344
Appendice A - Somme e serie n Γ 1 15) = (n + 1) + ζ (3) 3 k Γ k=1 dove: ' +∞ Γ (x) = 0 e−t tx−1 dt , ∀ x > 0
Funzione Gamma di Eulero
γ = −Γ (1) = 0, 57721566490153286060... γn ∈ [0, 1], ζ (x) =
Costante di Eulero-Mascheroni
γn γ
+∞
k−x ,
∀x > 1
Funzione Zeta di Riemann
k=1
16)
Disuguaglianza di Cauchy-Schwarz: n
2 ≤
Aj Bj
n
j=1
17)
Aj2
j=1
n
Bj2
∀Aj , Bj ∈ R
j=1
Identit` a di Lagrange: ∀Aj , Bj ∈ R n n n 2 n n
2
2
1
Aj Bj − Aj Bj = (Aj Bk − Ak Bj )2 2 j=1 j=1 j=1 j=1 k=1
18) 19) 20) 21) 22) 23) 24)
+∞ k=0 +∞
Ak = lim
n→+∞
n
Ak
1 = +∞ k k=1 +∞ 1 π2 = 2 6 k=1 k +∞ k 1 x = |x| < 1 1−x k=0 +∞ x kxk = |x| < 1 (1 − x)2 k=0 +∞ 2x3 k (k − 1) xk = |x| < 1 (1 − x)3 k=0 k Ak−j Bj = As Bj (A ∗ B)k = j=0
25)
+∞ k=0
26)
se esiste finito
k=0
(A ∗ B)k =
Convoluzione discreta
s+j=k
+∞ k=0
Ak
+∞
Bk
k=0
Un’espressione del tipo
+∞ k=0
se
+∞ k=0
|Ak | < +∞,
+∞
|Bk | < +∞
k=0
Ak xk `e detta Serie di potenze nella variabile x.
Per ogni scelta dei coefficienti Ak , esiste R, verificante 0 ≤ R ≤ +∞, detto raggio di convergenza della serie di potenze, tale che la somma della serie `e ben definita per ogni numero complesso x verificante |x| < R.
Appendice B - Numeri Complessi
L’insieme C dei numeri complessi `e l’insieme delle coppie ordinate (x, y) di numeri reali (o, equivalentemente, l’insieme dei punti del piano cartesiano) munito delle operazioni di somma e di una operazione di prodotto verificanti le propriet` a elencate nel seguito. Se indichiamo con i il numero complesso (0, 1) (detto unit` a immaginaria) allora ogni numero complesso (x, y) si pu` o rappresentare1 nella forma usuale x + iy. Si scrive anche x = Im(z) e y = Re(z). I numeri reali x e y sono detti rispettivamente parte reale e parte immaginaria del numero complesso x + iy. Se z1 = x1 + iy1 e z2 = x2 + iy2 sono due numeri complessi, somma e prodotto sono definite da z1 + z2 = (x1 + x2 ) + i (y1 + y2 ) z1 · z2 = (x1 x2 − y1 y2 ) + i (x1 y2 + x2 y1 ) (si noti che, per la seconda definizione, risulta i2 = −1 ) . Tali operazioni verificano le seguenti propriet` a, per ogni z1 , z2 , z3 ∈ C: z1 + z2 = z2 + z1
z1 z2 = z2 z1
(z1 + z2 ) + z3 = z1 + (z2 + z3 )
(z1 z2 ) z3 = z1 (z2 z3 )
z1 + 0 = z1
1 · z1 = z1
z + (−z) = 0
z = x + iy = 0
⇒
∃ z −1 =
x − iy x2 + y 2
(z1 + z2 ) z3 = z1 z3 + z2 z3 Se z = x + iy , allora il numero z = z − iy `e detto coniugato di z. Si noti che z = z se e solo se z `e reale (cio`e y = 0). ) Il modulo di z `e il numero |z| = x2 + y2 (radice aritmetica). Ne segue che |z| = 0 se e solo se z = 0 cio`e x = y = 0. Inoltre: |z1 + z2 | ≤ |z1 | + |z2 | 1
|z1 z2 | = |z1 | |z2 |
x+iy corrisponde a x (1, 0)+y (0, 1) avendo posto i = (0, 1). Analogamente si scrive 0 anzich´e (0, 0) ed 1 anzich´e (1, 0).
346
Appendice B - Numeri Complessi
Per ogni z = 0: z −1 = z/ |z|2 . L’esponenziale di un numero complesso z = x + iy `e cos`ı definito: ex+iy = ex (cos y + i sin y) e verifica ez1 +z2 = ez1 ez2 per ogni z1 , z2 ∈ C. In particolare, ∀θ ∈ R sin θ =
eiθ − e−iθ 2i
cos θ =
eiθ + e−iθ . 2
Per ogni z = x + iy esiste un unico θ ∈ [0, 2π) detto argomento di z tale che posto ρ = |z| vale x + iy = ρ (cos θ + i sin θ) = ρeiθ La seconda e la terza espressione sono dette rispettivamente forma polare e forma esponenziale di un numero complesso e sono particolarmente adatte al calcolo dei prodotti (la forma cartesiana `e invece utile per il calcolo delle somme): se z = ρ (cos θ + i sin θ) e w = r (cos ϕ + i sin ϕ ), allora valgono le formule di Moivre:2
z w = ρ r = (cos (θ + ϕ) + i sin (θ + ϕ)) = ρ r ei(θ+ϕ) z n = ρn (cos (nθ) + i sin (nθ)) = ρn einθ
∀n ∈ N
Se n `e un intero maggiore di zero allora ogni numero complesso z = ρeiθ diverso da zero (cio`e tale che ρ > 0) ha esattamente n radici n-esime complesse w1 , w2 , . . . , wn distinte (cio`e n numeri wj soddisfacenti wjn = z per ogni j = 1, . . . , n): w1 = dove
θ √ √ θ+2π √ θ+3π √ θ+2(n−1)π n ρei n n w2 = n ρei n w3 = n ρei n . . . wn = n ρei
√ n ρ denota la radice n-esima aritmetica del numero reale ρ.
Definizione. Una funzione f : C → C `e derivabile in senso complesso in z0 ∈ C se esiste un numero complesso chiamato derivata di f e indicato con f (z0 ) tale che ∀ε > 0 ∃δ > 0 :
f (z0 + h) − f (z0 ) <ε (z ) − f 0 h
∀h ∈ C: |h| < δ.
Le funzioni derivabili in tutto C in senso complesso sono chiamate funzioni analitiche intere: esse possiedono anche tutte le derivate successive in ogni punto di C e sono somma di una serie di potenze convergente in tutto il piano complesso. Ad esempio, sono funzioni analitiche exp, sin e cos per cui valgono:
2
Abraham de Moivre, 1667-1754.
Appendice B - Numeri Complessi
347
i
ep i/6
e5 p i/6
1
-i Figura B.1 Radici cubiche di i
exp (z) =
sin (z) =
+∞ k
z k! k=0 +∞
(−1)k
z 2k+1 (2k + 1)!
(−1)k
z 2k . (2k)!
k=0
cos (z) =
+∞
k=0
Equazioni algebriche Teorema fondamentale dell’Algebra. Ogni polinomio P in una variabile, con grado n maggiore o uguale ad 1, ha esattamente n radici complesse (contate con la loro molteplicit` a), cio`e esistono z1 , . . . , zn ∈ C non necessariamente distinti ed una costante c ∈ C\ {0} tali che P (z) = c (z − z1 ) (z − z2 ) · · · (z − zn ) . Nel seguito a, b, c, . . . sono numeri complessi assegnati con a = 0, x `e la variabile incognita. √ · denota sempre la radice aritmetica (non negativa) di un numero reale non negativo.
348
Appendice B - Numeri Complessi
Equazione di primo grado: Soluzione: x = −b/a
ax + b = 0
Equazione di secondo grado: ax2 + bx + c = 0 √ −b ± b2 − 4ac Soluzioni: x = se b2 − 4ac ≥ 0 2a √ −b ± i 4ac − b2 se b2 − 4ac < 0 x= 2a x=
−b ±
√ iθ/2 ρe 2a
Equazione di terzo grado:
se b2 − 4ac = ρeiθ ∈ C\R con ρ > 0, θ ∈ [0, 2π) ax3 + bx2 + cx + d = 0
Con il cambio di variabili x = t − b/ (3a) ci si riduce all’equazione equivalente nell’incognita t: t3 + pt + q = 0 le cui soluzioni sono tk = yk − p/ (3yk )
k = 1, 2, 3 + p3 q q2 + . dove yk sono le radici cubiche complesse di − + 2 4 27 Equazione di quarto grado:
ax4 + bx3 + cx2 + dx + e = 0
(B.1)
Con il cambio di variabili x = t−b/4a ci si riduce all’equazione equivalente nell’incognita t: t4 + pt2 + qt + r = 0 che (aggiungendo e togliendo z 2 + 2z) pu` o essere trasformata nell’equazione equivalente, dipendente anche da z: 2 2 (B.2) t + z = (2z − p) t2 − qt + z 2 − r . Se z `e soluzione dell’equazione di terzo grado 8z 3 − 4pz 2 − 8rz + 4pr − q2 = 0 allora l’equazione (B.2) si riscrive nella forma ) 2 2 ) t + z = 2z − p t − q/2 2z − p Quindi le soluzioni dell’equazione (1) sono soluzione di una delle due equazioni di secondo grado ) 2z − p = (2z − p) t − q/2 . ± x2 + z Le equazioni di quinto grado o superiore, salvo casi particolari, non possono essere risolte mediante radicali.
Appendice C - Aritmetica della probabilit` a
Se A, B, Aj denotano eventi di cui `e definita la probabilit` a e P denota la probabilit` a, allora: 1) 0 ≤ P (A) ≤ 1 2) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) 3) P (A ∪ B) = P (A) + P (B) se A ∩ B = ∅ ∞ ∞ 8 4) P Aj = P (Aj ) se Ak ∩ Ah = ∅, ∀k = h j=1
j=1
5) P (A ∩ B) = P (A) · P (B) se e solo se A e B sono tra loro indipendenti 6) P (A) ≤ P (B) se A ⊆ B 7) Principio di inclusione-esclusione: n 8 P Aj = j=1 n
P Aj − = j=1
P (Ai ∩ Aj ) +
1≤i<j≤n
P (Ai ∩ Aj ∩ Ak ) − · · ·
1≤i<j
· · · − (−1)n P (A1 ∩ A2 ∩ · · · ∩ An ) 8) Probabilit` a condizionata:
P (A|H) =
P (A ∩ H) P (H)
se P (H) = 0
9) Legge di Bayes: P (Hi |B) =
P (B|Hi) P (Hi ) n P (B|Hj ) P (Hj ) j=1
dove Hi ∩ Hj = ∅ se i = j,
n 8 j=1
ogni j.
Hj contiene tutti gli eventi, P (Hj ) = 0 per
Appendice D - Algebra lineare
Un vettore n dimensionale v `e una n-upla ordinata di numeri reali (o complessi) v1 , v2 , . . . , vn che rappresentiamo come colonna: ⎡ ⎤ v1 ⎢ v2 ⎥ ⎢ ⎥ v =⎢ . ⎥. ⎣ .. ⎦ vn La somma di due vettori n dimensionali v e w `e il vettore ⎤ ⎡ v1 + w1 ⎢ v2 + w 2 ⎥ ⎥ ⎢ v + w =⎢ ⎥. .. ⎦ ⎣ . vn + w n Il prodotto di un vettore n dimensionale v per un numero α reale (o complesso) `e il vettore ⎤ ⎡ αv1 ⎢ αv2 ⎥ ⎥ ⎢ αv = ⎢ . ⎥ . ⎣ .. ⎦ αvn L’insieme dei vettori n dimensionali, munito di tali operazioni ` e indicato con Rn n (o C ). 1/2 . La norma di un vettore v `e il numero reale v = |v1 |2 + |v2 |2 + · · · + |vn |2 Il prodotto scalare di due vettori di ugual dimensione v e w `e il numero v, w = v1 w1 + v2 w 2 + · · · + vn wn . 2
Ne segue v = v, v ≥ 0, ∀v, e la disuguaglianza di Cauchy-Schwarz: |v, w| ≤ v w
∀v, w.
Due vettori v e w si dicono ortogonali se e solo se v, w = 0. k vettori n dimensionali v1 , v2 , . . . , vk di dicono linearmente dipendenti se esistono k numeri α1 , . . . , αk non tutti nulli tali che
Appendice D - Algebra lineare α1 v 1 + α2 v 2 + · · · + αk v k = 0
351 (D.1)
dove 0 denota il vettore n dimensionale le cui componenti sono tutte nulle. Se la (D.1) risulta soddisfatta solo per α1 = α2 = · · · = αk = 0, allora i vettori v1 , v2 , . . . , vk si dicono linearmente indipendenti. Si faccia attenzione alla posizione degli indici: vj `e il vettore di componenti vij : ⎡ j⎤ v1 ⎢ v2j ⎥ ⎢ ⎥ vj = ⎢ . ⎥ . ⎣ .. ⎦ vnj Una espressione del tipo α1 v1 + α2 v2 + · · · + αk vk `e detta combinazione lineare dei vettori vj . Si noti che ogni insieme di k vettori n dimensionali con k > n `e linearmente dipendente. Un insieme di vettori di Rn `e una base di Rn se tali vettori verificano le due condizioni seguenti: 1) sono linearmente indipendenti; 2) generano Rn (cio`e ogni elemento di Rn `e uguale ad una combinazione lineare a coefficienti reali di essi). Rn ha infinite basi, ma ognuna di esse `e costituita esattamente da n vettori. Una base si dice ortonormale se `e costituita da vettori di norma 1 e a due a due ortogonali. I vettori ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 0 0 ⎢0⎥ ⎢1⎥ ⎢0⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ . ⎥, ⎢ . ⎥, ..., ⎢ . ⎥ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ 0 0 1 sono un esempio di base ortonormale in Rn , detta base canonica di Rn . Analogamente, una base di Cn `e un insieme di n vettori linearmente indipendenti le cui combinazioni a coefficienti complessi generano Cn . Una matrice di ordine n × m `e una tabella di n righe ed m colonne: ⎡ ⎤ a11 a12 . . . a1m ⎢ a21 a22 . . . a2m ⎥ ⎢ ⎥ A =⎢ . .. . . .. ⎥ ⎣ .. . . ⎦ . an1 an2 . . . anm dove aij denota l’elemento di A nella i-esima riga e j-esima colonna. Diremo brevemente ordine n nel caso di matrici quadrate di ordine n × n. I vettori di Rn sono matrici n × 1 (colonne). Scriveremo brevemente A = [aij ]. Il prodotto di una matrice A per un numero α `e la matrice [αaij ] i cui elementi nella posizione i,j sono α aij . La coniugata A di una matrice `e una matrice delle stesse dimensioni tale che A = [aij ]. Una matrice A `e detta triangolare superiore se i > j implica aij = 0, triangolare inferiore se i < j implica aij = 0.
352
Appendice D - Algebra lineare
La trasposta di una matrice A di ordine n × m `e la matrice AT di ordine m × n tale che aTij = aji . Una matrice A di ordine n × m pu` o essere moltiplicata per una matrice B di ordine m × l ottenendo una nuova matrice D di ordine n × l mediante il prodotto righe per colonne: m
aik bkj . D = AB, dij = k=1
Si noti che dij `e il prodotto scalare in R della i-esima riga di A per la j-esima colonna di B. In particolare, anche il prodotto scalare di due vettori si interpreta come prodotto di una matrice colonna per una matrice riga: m
v, w = wT v
wT = [w 1 , w 2 , . . . , w n ] .
Se n = l, allora sono definiti sia il prodotto AB che il prodotto BA (mediante la regola righe per colonne), tuttavia essi non sempre sono uguali 0 cio` 1 e il prodotto 0 1 di 11 01 matrici non ` e commutativo (si considerino, ad esempio, A = eB= ). 11 00 Le matrici diagonali (o semisemplici), cio`e le matrici quadrate con tutti gli elementi fuori dalla diagonale principale nulli (aij = 0 se i = j), commutano nel prodotto con ogni altra matrice nilpotente. Se A `e una matrice quadrata di ordine n se ne definisce la funzione determinante che `e un numero che indicheremo con det A. 0 1 ab Se n = 2, A = allora det A = ad − bc. Tale valore `e l’area orientata del paralcd 0 1 0 1 a b lelogramma associato ai vettori e c d ⎤ ⎡ a11 a12 a13 Se n = 3, A = ⎣ a21 a22 a31 ⎦, allora il determinante di A a31 a32 a33 det A =a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 ⎡
⎤⎡ ⎤⎡ ⎤ a11 a12 a13 `e il volume orientato del parallelepipedo associato ai vettori ⎣ a21 ⎦ ⎣ a22 ⎦ ⎣ a23 ⎦. a31 a32 a33 In generale, se n `e l’ordine della matrice quadrata A, la definizione di determinante `e data in modo ricorsivo a partire dalla conoscenza del calcolo di determinanti di ordine (n − 1): fissato i, 1 ≤ i ≤ n, allora det A = (−1)i+1 ai1 det Ai1 + · · · + (−1)i+n ain det Ain
(D.2)
dove Aij denota la matrice (n − 1) × (n − 1) ottenuta da A eliminando la i-esima riga e la j-esima colonna. Si noti che tale espressione (detta sviluppo di Laplace rispetto alla riga i-esima) non dipende dalla scelta della riga i.
Appendice D - Algebra lineare
353
d
(a12 ,a22 ,a32) (a13 ,a23 ,a33) c
( a11 ,a21 ,a31 )
b
a
Figura D.1 Significato geometrico del determinante per n = 2, 3
Propriet` a dei determinanti (A e B matrici di ordine n) • det AT = det A; • det (AB) = det A det B; • det (αA) = αn det A; • se A `e triangolare superiore (o inferiore) allora det A = a11 a22 · · · ann . Una matrice quadrata A di ordine n `e invertibile se esiste una matrice A−1 di a: ordine n tale che AA−1 = In dove In indica la matrice identit` ⎡
1 ⎢0 ⎢ In = ⎢ . ⎣ .. 0
0 1 .. . 0
... ... .. . ...
⎤ 0 0⎥ ⎥ .. ⎥ . .⎦ 1
Se esiste A−1 `e unica e inoltre vale A−1 A = In . Condizione necessaria e sufficiente per l’esistenza di A−1 `e che det A = 0. Se det A = 0, allora l’elemento di posizione i, j di A−1 `e (−1)i+j det Aji / det A dove Aij `e la matrice ottenuta da A eliminando la i-esima riga e la j-esima colonna, e risulta det A−1 = (det A)−1 . Osserviamo che il numero di operazioni necessarie per calcolare il determinante mediante la definizione (D.2) cresce cos`ı rapidamente con n da renderne proibitivo il calcolo anche se l’ordine n non `e particolarmente elevato. Sono molto utili espressioni che consentano di ridurre il numero di tali operazioni sfruttando eventuali propriet` a di struttura della matrice (triangolare, a blocchi, etc.).
354
Appendice D - Algebra lineare
Sistemi di equazioni algebriche lineari Il sistema di n equazioni in n incognite xj ⎧ a11 x1 + a12 x2 + · · · + a1n xn = b1 ⎪ ⎪ ⎪ ⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2 .. ⎪ ⎪ . ⎪ ⎩ an1 x1 + an2 x2 + · · · + ann xn = bn ⎤ ⎡ ⎤ b1 x1 ⎢ . ⎥ ⎢ . ⎥ pu` o essere scritto nella forma Ax = b dove A = [aij ], x = ⎣ .. ⎦, b = ⎣ .. ⎦ . xn bn ⎡
Teorema D.1. (Rouch´ e-Capelli) Il sistema omogeneo Ax = 0 ha soluzioni non banali (cio`e diverse dal vettore 0) se e solo se det A = 0. Se det A = 0, allora il sistema Ax = b ha un’unica soluzione data dalla Regola di Cramer det Dj xj = det A dove Dj `e la matrice ottenuta sostituendo b alla j-esima colonna di A. Se det A = 0, allora o il sistema Ax = b non ha soluzioni oppure ne ha infinite: precisamente vi sono infinite soluzioni se e solo se b, y = 0
∀y : AT y = 0.
`e una soluzione di Ax = b, allora le altre sono del tipo x + z dove z Inoltre, se x risolve Az = 0. Osserviamo che il teorema precedente ha grande importanza teorica, ma pu` o essere applicato per calcolare numericamente la soluzione x solo per n molto piccolo, a causa della gi` a citata difficolt` a di calcolo dei determinanti. Invece nella pratica del calcolo numerico si devono risolvere sistemi di grandi dimensioni; in tali casi si pu` o ricorrere a metodi diretti di soluzione, ad esempio il metodo di eliminazione di Gauss, o a metodi di tipo iterativo molto efficienti dal punto di vista computazionale (si veda il paragrafo 5.8).
Funzioni lineari e spazi vettoriali Se A `e una matrice n × m, allora la funzione che ad ogni x ∈ Rm associa il vettore Ax ∈ Rn `e una funzione lineare cio`e A (αx+βy) = αAx+βAy
∀α, β ∈ R
e viene anch’essa denotata con A. Il nucleo di A `e l’insieme ker A = {x ∈ Rm : Ax = 0 ∈ Rn } .
∀x, y ∈ Rm
Appendice D - Algebra lineare
355
L’immagine di A `e l’insieme im A = {z ∈ Rn : ∃x ∈ Rm , Ax = z} . Un sottoinsieme V di Rn `e uno spazio vettoriale (reale) se `e chiuso rispetto alle operazioni di somma e prodotto per un numero reale, cio`e: ∀v, w ∈ V, ∀α ∈ R
v + w ∈V,
αv ∈ V.
Un sottoinsieme W ⊂ Cn `e uno spazio vettoriale (complesso) se `e chiuso rispetto alle operazioni di somma e prodotto per un numero complesso, cio`e: ∀v, w ∈ W, ∀α ∈ C
v + w ∈W,
αv ∈ W.
Pi` u in generale, un qualsiasi insieme chiuso rispetto all’operazione di somma e prodotto per uno scalare `e detto spazio vettoriale. Una base di uno spazio vettoriale `e un insieme linearmente indipendente che genera lo spazio. Se tale insieme `e finito, il numero dei suoi elementi `e detto dimensione dello spazio vettoriale. Rn `e uno spazio vettoriale di dimensione finita (uguale ad n). L’insieme delle successioni di numeri reali `e un esempio di spazio vettoriale di dimensione infinita. Teorema D.2. Se A : Rm → Rn `e una funzione lineare, allora ker A e im A sono spazi vettoriali e vale dim (im A) + dim (ker A) = m. Inoltre, se n = m, allora ker A = {0}
⇔
im A = Rn
⇔
A `e biunivoca
⇔
det A = 0.
Se u1 , u2 , . . . , un sono n vettori linearmente in Rn allora essi formano 2 iindipendenti 3−1 n di ordine n (inversa della matrice una base di R e la matrice quadrata U = uj le cui colonne sono i vettori ui) `e detta matrice del cambio di base: se x `e un vettore ed A `e una funzione lineare le cui componenti sono, rispettivamente, xj e aij rispetto alla base canonica, allora le componenti, rispettivamente yi e bij , di y e B corrispondenti a x ed A nella base u1 , u2 , . . . , un, sono date rispettivamente da y = Ux B = UAU−1 . Si dice somma di due sottospazi U e V di Rn l’insieme W dei vettori w che sono somma di un elemento u di U e di un elemento v di V : w = u + v. L’insieme somma `e anch’esso uno spazio vettoriale. Se la rappresentazione di ogni elemento di W `e unica diciamo allora che W `e somma diretta di U e V e scriveremo W = U ⊕ V . Si dimostra che condizione necessaria e sufficiente affinch´e la somma di due sottospazi U e V di Rn sia una somma diretta `e che U ∩ V = {0}.
Autovalori ed autovettori Sia A una matrice n × n e λ un numero reale o complesso. Eventuali vettori v ∈ Rn non banali (cio`e v = 0) soluzioni del sistema
356
Appendice D - Algebra lineare Av = λv
sono detti autovettori di A. Se v `e un autovettore il corrispondente (unico) valore λ che risolve Av = λv `e detto autovalore associato all’autovettore v. Se v `e un autovettore associato all’autovalore λ, allora anche ogni multiplo di v `e pure autovettore. Ad un autovalore possono corrispondere un solo autovettore con i suoi multipli (in tal caso l’autovalore `e detto autovalore semplice) oppure pi` u autovettori linearmente indipendenti (autovalore multiplo). In ogni caso gli autovettori associati ad un fissato autovalore λ formano con 0 uno spazio vettoriale detto autospazio di λ; la dimensione di tale autospazio `e detta molteplicit` a geometrica dell’autovalore λ. Gli autovalori di A sono tutti e soli gli zeri di det (A − λIn ). Osserviamo che det (A − λIn ) `e un polinomio di grado n in λ, detto polinomio caratteristico della matrice A. Gli autovalori sono dunque esattamente n purch´e vengano contati con la loro molteplicit` a algebrica. Autovettori corrispondenti ad autovalori distinti sono linearmente indipendenti e, se T A = A allora sono anche ortogonali. Se esiste una base di Rn costituita da n autovettori v1 , v2 , . . . , vn di A e λ1 , λ2 , . . . , λn sono i corrispondenti autovalori (non necessariamente tutti distinti), allora la matrice associata ad A in questa base `e diagonale: ⎡ ⎢ ⎢ ⎢ B=⎢ ⎢ ⎣
λ1 0 0 .. . 0
0 λ2 0 .. . 0
0 0 λ3 .. . 0
... ... ... .. . ...
⎤ 0 0 ⎥ ⎥ 0 ⎥ ⎥ .. ⎥ . ⎦ λn
2 3−1 . In tal caso, la matrice A si dice diagonadove B = UAU−1 e U = u1 , u2, . . . , un lizzabile. Si noti che A e B hanno lo stesso polinomio caratteristico, infatti: det (B−λIn ) = det U (A−λIn ) U−1 = det U det (A−λIn ) (det U)−1 = det (A−λIn ) . Dunque, se A, matrice quadrata di ordine n, ha esattamente n autovalori distinti con molteplicit` a algebrica 1 allora A `e diagonalizzabile. Inoltre, valgono i seguenti risultati. Teorema D.3 (Teorema spettrale) Sia A : Rn → Rn simmetrica (cio`e tale che A = AT ). Allora esiste una base ortonormale di Rn costituita di autovettori di A. T Sia A : Cn → Cn hermitiana (cio`e A = A ). Allora esiste una base ortonormale n di C costituita da autovettori di A. Teorema D.4. Se A : Rn → Rn `e definita positiva, cio`e ∃α > 0 :
Ax, x ≥ α x2
∀x ∈ Rn
allora tutti gli autovalori λ di A sono reali t.c. λ ≥ α, dunque strettamente positivi. Teorema D.5 (Teorema di Cayley-Hamilton). Se P (λ) = det (A − λIn ), allora P (A) = O (matrice quadrata di ordine n con elementi tutti nulli).
Appendice D - Algebra lineare
357
Forma canonica di Jordan Non sempre 0`e possibile una matrice mediante un cambio di base 1 0 diagonalizzare 1 10 11 (ad esempio e non sono diagonalizzabili). Tuttavia `e sempre possibile 11 01 effettuare un cambio di base che renda triangolare la matrice. Pi` u precisamente si pu` o ridurre alla forma canonica di Jordan: cio` e triangolare con elementi diversi da zero solo sulla diagonale principale e al pi` u sulla diagonale adiacente inferiore (aij con i = j + 1). Gi` a sappiamo che se una matrice quadrata ha tutti gli autovalori semplici allora `e diagonalizzabile. Dunque le matrici che potrebbero3 non essere diagonalizzabili sono quelle che hanno almeno un autovalore algebricamente non semplice. Quelle che effettivamente non sono diagonalizzabili presentano almeno un autovalore con molteplicit` a algebrica strettamente maggiore della molteplicit` a geometrica. Sia A una matrice n × n. Nel seguito V denoter` a Rn se i termini aij , λj sono reali ∀i, j = 1, 2, . . . , n ; V denoter` a Cn se vi sono coefficienti o autovalori complessi. Se λ `e un autovalore di A allora l’autospazio associato ad A `e ker (A − λIn ). Se tale autospazio ha dimensione minore della molteplicit` a algebrica di λ allora A non `e diagonalizzabile. Definiamo l’autospazio generalizzato relativo all’autovalore λ: 9 ker (A − λIn )k . k∈N
Teorema D.6. Per ogni autovalore λ di A l’autospazio generalizzato corrispondente ha dimensione uguale alla molteplicit` a algebrica di λ. Ogni elemento di V pu` o essere ottenuto (in modo unico) mediante una combinazione lineare di elementi degli autospazi generalizzati corrispondenti a tutti gli autovalori. Esiste una base di V (l’unione delle basi di tutti gli autospazi generalizzati) in cui la matrice ha tutti gli elementi nulli salvo gli autovalori disposti in ordine lessicografico4 crescente sulla diagonale principale, ed elementi uguali a 1 o 0 sulla diagonale adiacente inferiore; ha inoltre una struttura a blocchi quadrati sulla diagonale principale di dimensione pari alla dimensione degli autospazi. Ciascun autospazio generalizzato pu` o presentare una ulteriore sottostruttura in modo tale che i corrispondenti sottoblocchi abbiano solo valori uguali ad 1 sulla sottodiagonale. Tali sottoblocchi sono detti blocchi di Jordan. Un blocco di Jordan B di dimensione k `e caratterizzato dalla presenza dell’autovalore λ sulla diagonale principale e dal fatto che la matrice T = B − λIk verifica Tk−1 = Ok = Tk . Oltre all’ordinamento con gli autovalori, i sottoblocchi di Jordan di un blocco relativo ad uno stesso autovalore possono essere ordinati in ordine crescente di dimensione (vedi Figura D.2). Osserviamo che la forma di Jordan pu` o presentare termini complessi sulla diagonale anche se A `e reale. In tal caso, gli autovalori si presentano a coppie complesse coniugate di uguale molteplicit` a e gli autovettori generalizzati sono dunque una base in Cn , se A ha ordine n. Nel caso di A reale, ma con autovalori complessi, si pu` o comunque ottenere una forma canonica reale, adottando piccole modifiche alla base: si abbinano a coppie I2 `e ovviamente diagonale pur avendo l’autovalore 1 con molteplicit` a algebrica e geometrica uguale a 2. 4 Cio`e λ1 ≺ λ2 se Re(λ1 ) < Re(λ2 ) oppure Re(λ1 ) = Re(λ2 ) e Im(λ1 )
358
Appendice D - Algebra lineare 1 ⎡0 λ1 0 ⎢ 1 λ1 ⎢ ⎢ [λ2 ] ⎢ ⎢ 0 1 ⎢ ⎢ λ2 0 ⎢ ⎢ 1 λ2 0 ⎢ 1 ⎢ λ2 0 ⎢ ⎢ 1 λ2 ⎡ ⎢ ⎤ ⎢ λ2 0 0 ⎢ ⎢ ⎣ 1 λ2 0 ⎦ ⎢ ⎢ 0 1 λ2 ⎢ ⎢ ⎢ ⎢ ⎢ ⎣
⎤
⎡
λ3 ⎢ 1 ⎢ ⎣ 0 0
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎤⎥ 0 0 0 ⎥ ⎥ ⎥ λ3 0 0 ⎥ ⎥⎥ 1 λ3 0 ⎦ ⎦ 0 1 λ3
Figura D.2 Matrice nella forma di Jordan: λ1 ≺ λ2 ≺ λ3 . Gli elementi omessi sono tutti nulli gli autovalori ed autovettori coniugati e si osserva che se Av = λv, Av = λv allora 1 (v−v) e w = 12 (v+v) sono i vettori reali (non autovettori) da sostituire z = 2i nell’ordine a v e v per ottenere una base di Rn in cui la matrice ha come elementi non banali solo blocchi del tipo riportato a destra delle frecce nella Figura D.3. Si noti che dall’identit` a (a + ib) (x + iy) = (ax − by) + i (bx + ay) si deduce che la moltiplicazione dei numeri complessi del tipo z = (x + iy) per il numero complesso λ = (a + ib) corrisponde, in coordinate reali (x, y)T , ad una rotazione accompagnata da dilatazione o contrazione, descritta dalla moltiplicazione per la matrice: 0 1 0 1 ) a −b cos θ − sin θ A= =ρ , dove ρ = a2 + b2 , θ = arctan (b/a) . b a sin θ cos θ Dalla forma di Jordan si deduce che ogni matrice A, in una opportuna base di Cn , si rappresenta come somma di una matrice semisemplice o diagonale S e di una matrice nilpotente T (cio`e tale che Tk = O per un opportuno intero k ≤ n): A = S + T. 0
1
0
λ 0 a −b −→ b a 0 λ
Figura D.3 Blocchi semplici e doppi ⎡ 0 0 0 ⎢1 0 0 T=⎢ ⎣0 1 0 0 0 1
⎡
λ ⎢1 ⎢ ⎣ 0 0
1
0 λ 0 0
0 0 λ 1
⎤ 0 0 ⎥ ⎥ −→ 0⎦ λ
⎡
⎤ a −b 0 0 ⎢ b a 0 0 ⎥ ⎢ ⎥ ⎣ 1 0 a −b ⎦ 0 1 b a
di Jordan reali associati ad autovalori complessi λ = a ± ib ⎤ 0 0⎥ ⎥ 0⎦ 0
⎡
0 ⎢0 2 T =⎢ ⎣1 0
0 0 0 1
0 0 0 0
⎤ 0 0⎥ ⎥ 0⎦ 0
⎡
0 ⎢0 3 T =⎢ ⎣0 1
0 0 0 0
0 0 0 0
⎤ 0 0⎥ ⎥ 0⎦ 0
T4 = O
Figura D.4 T `e un esempio di matrice nilpotente di ordine 4
Appendice E - Topologia
La topologia `e una teoria geometrica che studia le propriet` a invarianti rispetto alle trasformazioni biunivoche, continue e con inversa continua. In termini elementari e intuitivi si pu` o pensare alle deformazioni di un solido elastico in assenza di strappi, incollamenti, perforazioni o fratture. Sia E un insieme. Assegnare una topologia su E significa assegnare una famiglia τ di sottoinsiemi di E tali che: 1) E e ∅ sono elementi di τ 2) ogni unione di elementi di τ `e un elemento di τ 3) ogni intersezione finita di elementi di τ `e un elemento di τ . Gli elementi di τ si dicono insiemi aperti della topologia τ o, brevemente, aperti. La coppia (E, τ ) si dice spazio topologico e τ ne `e la topologia. Esempio E.1. Sull’insieme E = R consideriamo la topologia euclidea: τ = {A ⊂ R : ∀x ∈ A ∃ε > 0 t.c. (x − ε, x + ε) ⊂ A} .
Esempio E.2. Sull’insieme E = Rn consideriamo la topologia euclidea: τ = {Ω ⊂ Rn : ∀x ∈ Ω ∃r > 0 t.c. {y : y − x < r} ⊂ Ω} .
Esempio E.3. Sull’insieme E = C consideriamo la topologia euclidea: τ = {Ω ⊂ C : ∀z ∈ Ω ∃r > 0 t.c. {w : |w − z| < r} ⊂ Ω} .
` facile verificare che in tutti gli esempi citati sono valide le tre propriet` E a che caratterizzano una topologia. Definizione E.4. Siano (X, τ ), (Y, ρ) due spazi topologici, ed f : X → Y una funzione. Si dice che f `e continua se ∀A ∈ ρ risulta f −1 (A) ∈ τ , cio`e la controimmagine di ogni aperto ` e aperta.
360
Appendice E - Topologia
Teorema E.5. Se X = Rn e Y = Rm , τ , ρ sono le corrispondenti topologie euclidee, allora la definizione precedente `e equivalente alla usuale definizione metrica di continuit` a di f : Rn → Rm , che qui riportiamo: ∀x0 ∈ X ∀ε > 0 ∃δ > 0
tale che
x − x0 < δ
⇒
f (x) − f (x0 ) < ε .
Teorema E.6. La composizione di funzioni continue ` e continua. Sia (E, τ ) uno spazio topologico. Si definisce allora la famiglia σ degli insiemi chiusi in E o, brevemente chiusi, come segue: σ = {C ⊂ E : ∃A ∈ τ t.c. C = E\A} . ` facile dedurre Dunque gli insiemi chiusi sono i complementari degli insiemi aperti. E dalle propriet` a degli insiemi aperti che per gli insiemi chiusi valgono le seguenti: 1) E e ∅ sono elementi di σ 2) ogni intersezione di elementi di σ `e un elemento di σ 3) ogni unione finita di elementi di σ `e un elemento di σ Definizione E.7. La chiusura, denotata con D, di un sottoinsieme D di uno spazio topologico E `e il pi` u piccolo insieme chiuso che contiene D cio`e D = ∩ {C : C chiuso, D ⊂ C} .
Definizione E.8. topologico E `e
Il bordo (o frontiera) di un sottoinsieme D di uno spazio ∂D = D ∩ E\D .
Definizione E.9. L’interno (o parte interna) di un sottoinsieme D di uno spazio topologico `e ◦
D = D\∂D . Definizione E.10. Assegnati due sottoinsiemi A e B di uno spazio topologico, si dice che A `e denso in B se B ⊂ A. Esempio E.11. Se lo spazio topologico `e R con la topologia euclidea e A, B ⊂ R, con B aperto, allora A `e denso in B se per ogni intervallo (a, b) ⊂ B esiste un elemento x ∈ A ∩ (a, b). Esempio E.12. Q `e denso in R. Definizione E.13. Un insieme aperto U contenuto in uno spazio topologico si dice connesso se non esistono due aperti A e B non vuoti e disgiunti la cui unione sia U .
Appendice F - Dimensione frattale
Accenniamo brevemente al problema della “misura” e della “dimensione” dei sottoinsiemi di uno spazio euclideo. Lo scopo `e definire una funzione di insieme che corrisponda alla lunghezza nel caso di segmenti, al conteggio nel caso di insiemi costituiti da un numero finito di punti, ma si adatti in modo coerente alle situazioni intermedie (ad esempio, l’insieme di Cantor), e pi` u in generale, consenta di misurare sottoinsiemi di Rn oltrech´e di attribuire loro una dimensione coerente con le nozioni di area e volume delle figure della geometria elementare. Descriviamo sinteticamente la dimensione di Hausdorff e la box counting dimension precisando alcune relazioni che intercorrono tra le due definizioni. Per ogni sottoinsieme F di Rn ed ogni numero reale non negativo s definiamo la misura di Hausdorff s dimensionale di F come Hs (F ) = lim Hsδ (F ) = sup Hsδ (F ) δ→0+
δ>0
dove, per 0 < δ < +∞, Hsδ (F ) =
ωs inf 2s
+∞
(diam Uj )s :
j=1
F ⊂
∞ 9
: Uj , diam Uj ≤ δ
j=1
−1 ' ∞ con diam Uj = sup {|x − y| : x, y ∈ Uj } . La costante ωs = πs/2 0 e−x xs/2 dx `e positiva e finita per ogni s e normalizza la misura in modo da ottenere i valori corretti nei casi elementari: ω0 = H0 ({0}) = 1,
ω1 = H1 ([−1, 1]) = 2
ω2 = H 2
& % (x, y) ∈ R2 : x2 + y2 ≤ 1 = π
ω3 = H 3
& % 4 (x, y, z) ∈ R3 : x2 + y2 + z 2 ≤ 1 = π. 3
362
Appendice F - Dimensione frattale
Hs `e una misura5 positiva, cio`e una funzione di insieme a valori in [0, +∞] che verifica le ragionevoli richieste qualitative per misurare tutti gli insiemi di Rn qui elencate:
1) F =
∞ 8
⇒
Ej
Hs (F ) ≤
j=1
Hs (Ej )
subadditivit` a numerabile
j=1
2) Hs (F + τ ) = Hs (F ) 3) H (αF ) = α H (F ) s
+∞
s
s
∀F ⊂ Rn , ∀τ ∈ Rn ∀F ⊂ Rn ,
invarianza per traslazioni
∀α ∈ R
s omogenenit` a di Hs
4) Hs (∅) = 0 , H0 `e la misura che conta i punti, Hs `e identicamente nulla se s > n 5) se 0 ≤ s < t allora Ht (F ) > 0
⇒
Hs (F ) = +∞.
Se gli insiemi Ej sono boreliani (unioni o intersezioni numerabili di insiemi aperti e/o chiusi) a due a due disgiunti (j = k ⇒ Ej ∩ Ek = ∅), allora nella 1) vale l’uguaglianza (additivit` a numerabile). La dimensione di Hausdorff di un insieme F ⊂ Rn `e definita da dimH (F ) = inf {s ≥ 0 : Hs (F ) = 0} = sup {s ≥ 0 : Hs (F ) = +∞} . Se s = dimH (F ) allora si hanno tre possibilit` a: Hs (F ) = 0,
Hs (F ) = +∞,
0 < Hs (F ) < +∞.
La dimensione di Hausdorff dell’insieme di Cantor C `e dimH (C) =
ln 2 = 0, 6309297536 . . . ln 3
come si pu` o dedurre dal seguente argomento euristico: C = CS ∪ CD dove l’unione `e disgiunta: CS = C ∩ [0, 1/3]
∀s :
CD = C ∩ [2/3, 1] s s 1 1 Hs (C) + Hs (C) Hs (C) = Hs (CS ) + Hs (CD ) = 3 3
per la 3).
Se per il valore critico s = dim C risulta 0 < Hs (C) < +∞ (propriet` a vera che non dimostriamo), allora s ln 2 1 . ⇒ s= 1=2 3 ln 3 Osserviamo esplicitamente che H1 (C) = 0 e H0 (C) = +∞. Un metodo per costruire insiemi di dimensione di Hausdorff non banale (cio` e non intera), detti per questo insiemi frattali, `e la costruzione seguente, dovuta a J.E. Hutchinson. 5
Pi` u precisamente si dovrebbe parlare di misura esterna, ma noi tralasciamo tale questione.
Appendice F - Dimensione frattale
363
Sia M = {M1 , . . . MN } una famiglia di similitudini di Rn cio`e del tipo Mj (x) = pj + ρj M x dove M `e una matrice ortogonale6 , 0 < ρj < 1 ed esiste un insieme aperto U limitato in Rn tale che: Mj (U ) ⊂ U
e
Mi (U ) ∩ Mj (U ) = ∅
se i = j.
(F.1)
Teorema F.1. Se M verifica la precedente (F.1), allora esiste unico un insieme chiuso e limitato K tale che K = M1 (K) ∪ M2 (K) ∪ · · · ∪ MN (K). Tale insieme K `e un frattale autosimile 7 la cui dimensione dimH (K) `e l’unica soluzione s dell’equazione N
ρsj = 1. j=1
Ad esempio, l’insieme di Cantor `e l’unico insieme invariante rispetto alla famiglia delle due similitudini seguenti: M1 (x) = x/3 , M2 (x) = 1 + (x − 1) /3. Vi sono numerose altre definizioni di dimensione frattale. Esse non verificano tutte le propriet` a della dimensione di Hausdorff, tuttavia sono definite in modo pi` u elementare ed `e pi` u semplice valutarle. Un esempio importante `e la box counting dimension che quantifica la nozione di dimensione ad una scala δ (trascurando le scale inferiori) per poi effettuare un limite quando δ tende a 0. Definizione F.2. Sia F ⊆ Rn e δ > 0. Sia Nδ (F ) il minimo numero di insiemi di diametro minore od uguale a δ che occorrono per ricoprire F . Allora la box counting dimension di F , indicata con dimB (F ), `e definita da dimB (F ) = lim
δ→0+
ln Nδ (F ) − ln δ
(F.2)
se tale limite esiste. L’idea alla base della definizione `e la seguente: se esiste una omogenenit` a di Nδ (F ) rispetto a δ, di tipo potenza, cio`e Nδ (F ) δs → m (dove m ∈ (0, +∞) svolge il ruolo di misura s dimensionale di F ), allora Nδ ∼ mδ−s , ln Nδ ∼ ln m − s ln δ; dividendo ln Nδ (F ) . e passando al limite per δ → 0+ , necessariamente s = lim − ln δ δ→0+ La formula (F.2) `e particolarmente adatta a valutazioni empiriche: se si riportano in scala logartimica i valori di δ ed Nδ relativi ad alcune misure, allora s `e la pendenza cambiata di segno della retta di regressione associata a tali valori.
Q `e ortogonale se e solo se trasforma basi ortonormali in basi ortonormali (equivalentemente, se e solo se la matrice ad essa associata in una qualunque base, e denotata ancora con Q, `e invertibile e verifica QT = Q−1 ). 7 Autosimile significa che `e unione di parti ottenibili ciascuna dall’insieme stesso con un movimento rigido ed una riduzione di scala (`e una idealizzazione, per la cui comprensione pu` o essere utile pensare alla struttura geometrica di una felce o di un cavolfiore). 6
364
Appendice F - Dimensione frattale ln Nδ (F)
−ln δ
Figura F.1 Coppie di valori empirici (δ, Nδ (F )) riportati in scala logaritmica Un primo inconveniente `e il fatto che il limite in (F.2) pu` o non esistere (mentre la dimensione di Hausdorff `e sempre definita). Tuttavia, quando esiste dimB (F ) essa `e un numero reale in [0, n], ed assume gli usuali valori interi su punti, rette, curve, a di monotonia: F ⊂ E superfici regolari. Inoltre dimB verifica la naturale propriet` ⇒ dimB (F ) ≤ dimB (E). Infine, nella definizione di Nδ (F ) `e sufficiente utilizzare cubi o dischi di diametro δ per ricoprire F anzich´e tutti gli insiemi di diametro minore o uguale a δ. o essere scelto come il numero Esempio F.3. Se F `e una curva in R2 , Nδ (F ) pu` minimo di “passi” di lunghezza minore o uguale a δ necessari a “percorrerla”.
d
Figura F.2 Rettificazione di una curva con passi di lunghezza minore o uguale a δ
Appendice F - Dimensione frattale
365
Esempio F.4. Se F = Q ∩ [0, 1], allora dimH (F ) = 0 = 1 = dimB (F ). Questo fatto segue dall’uguaglianza, vera per ogni F di cui sia definita dimB (F ): dimB (F ) = dimB F dove F indica la chiusura dell’insieme F . L’ultimo esempio (dimensione box counting 1 di una unione numerabile di punti che hanno dimensione box counting nulla) prova che per la box counting dimension viene meno un’importante propriet` a relativa alle unioni numerabili, valida per la misura di Hausdorff: +∞ 8 Fj = s se dimH (Fj ) = s ∀j dimH j=1
dimB
+∞ 8
Fj
≥s
se dimB (Fj ) = s ∀j
j=1
Nell’ultima relazione pu` o valere la disuguaglianza stretta (l’uguaglianza `e garantita comunque se gli Fj sono in numero finito). Per questo ed altri motivo si preferisce utilizzare la nozione meno elementare di dimensione di Hausdorff. Vale comunque il seguente risultato. Teorema F.5. Se K `e un frattale autosimile di Hutchinson (cio`e `e l’unico compatto invariante associato ad una famiglia di similitudini verificante la (F.1)), allora esiste dimB (K) e dimH (K) = dimB (K) = s N
ρsj = 1 e 0 < Hs (K) < +∞ . dove s `e l’unica soluzione dell’equazione j=1
I Teoremi F.1 ed F.5 consente di calcolare facilmente la dimensione di alcuni frattali autosimili, come illustrato dai seguenti esempi di insiemi la cui dimensione non ` e un numero intero. Esempio F.6. L’insieme di Cantor C verifica dimH (C) = dimB (C) = ln 2/ ln 3. Esempio F.7. La curva di von Koch K (ottenuta a partire dal segmento [0, 1] rimpiazzando il segmento [1/3, 2/3] con i due lati di un triangolo equilatero di lato 1/3 ed iterando l’operazione) verifica dimH (K) = dimB (K) = ln 4/ ln 3. Esempio F.8. Il Sierpinski gasket triangolare G (che si ottiene da un triangolo equilatero con il bordo e l’interno, suddiviso in quattro triangoli equilateri, rimuovendo il triangolo centrale, ed iterando l’operazione) verifica dimH (G) = dimB (G) = ln 3/ ln 2 . Esempio F.9. L’insieme di Cantor t-medio Ct , 0 < t < 1 (si veda l’Esempio 4.38), verifica ln 2 . dimH (Ct ) = dimB (Ct ) = ln 2 − ln (1 − t)
366
Appendice F - Dimensione frattale
Figura F.3 Fiocco di neve costruito con la curva di von Koch e prime tre iterazioni del Sierpinski Gasket
Appendice G - Tabelle di Z-trasformate Tabella Z.1
368
Appendice G - Tabelle di Z-trasformate
Appendice G - Tabelle di Z-trasformate
369
Appendice G - Tabelle di Z-trasformate
370
Tabella Z.3 Y = {Yk }
k = 0, 1, 2, . . .
X = {Xk }
Z{Y }(z) = y(z)
k = 0, 1, 2, . . .
Z{X}(z) = x(z)
Yk := Xk+1 = τ−1 X
y(z) = z x(z) − z X0
Yk := Xk+2 = τ−2 X
y(z) = z 2 x(z) − z 2 X0 − z X1
Yk := Xk+3 = τ−3 X
y(z) = z 3 x(z) − z 3 X0 − z 2 X1 − z X2
Yk := Xk+n = τ−n X
y(z) = z n x(z) − z n X0 − . . . − z Xn−1
n≥0
Yk := Xk−n = τn X, Yk = 0 k < n, Yk = Xk−n Xk = Uk−n X0 =X1 = . . . = Xn−1 = 0,
Xk = 1 se k ≥ m
y(z) = z −n x(z) z n−1 z−1 −z x (z)
k Xk k n Xk ,
k≥n≥0
n≥0
−z
1 Xk k 1 Xk k+n
− n≥0
ak X k
d dz
z
z ∞
x(z/a)
k
z x(z) z−1
Xh h=0 k
(X ∗ Y )k =
Xh Yk−h h=0
x(z)
x(w) dw w
∞
−z n
n
x(z) y(z)
x(w) dw wn+1
Appendice G - Tabelle di Z-trasformate
371
Appendice H - Alcuni algoritmi e suggerimenti per simulazioni al computer
Gran parte dei calcoli e disegni del testo sono stati effettuati mediante il software c 4.1 (Wolfram Research Inc.). Forniamo alcuni suggerimenti utili per Mathematica lo studio di sistemi dinamici discreti utilizzando tale software.
Calcolo di iterate Un modo semplice per calcolare iterate di funzioni consiste nell’utilizzare il comando Nest, la cui sintassi `e la seguente: Nest [ funzione, valore iniziale ,
numero di iterazioni ]
Ad esempio, un programma per il calcolo delle prime quattro iterate del coseno a partire da X0 = π `e il seguente: Clear [ f, x ] f [x] = Cos [ x ] ; Nest [ f, Pi, 4 ] N [ %, 3 ] La prima istruzione `e consigliabile per evitare confusione con eventuali valori di f ed x presenti in memoria perch´e calcolati in precedenza; la seconda istruzione definisce la funzione coseno dipendente dalla variabile x (il punto e virgola esclude la stampa di qualunque output); la terza istruzione definisce la composizione cos (cos (cos (cos (π)))) = cos4 (π); la quarta istruzione calcola il valore numerico della quantit` a all’istruzione precedente, con tre cifre decimali, cio` e 0, 654. Se si vogliono calcolare anche le iterate precedenti, allora `e opportuno sostituire la terza istruzione con NestList [f, Pi, 4] che produce {π, −1, cos 1, cos (cos 1) , cos (cos (cos 1))} cio`e {X0 , X1 , X2 , X3 , X4 }; di conseguenza la quarta istruzione calcola il valore numerico di X0 , . . . , X4 con tre cifre significative, cio`e {3, 14 , −1 , 0, 54 , 0, 858 , 0, 654} .
Appendice H - Alcuni algoritmi e suggerimenti per simulazioni al computer
373
Equilibri di sistemi dinamici discreti Il s.d.d. {R, cos} ha un unico equilibrio stabile ed attrattivo α, che `e la soluzione di {α ∈ R : α = cos α}. Tale equilibrio pu` o essere calcolato in vari modi: 1) Metodo di Newton: la funzione g (x) = cos x − x `e continua e concava in [0, π/2] , positiva in 0 e negativa in π/2. Allora, a partire da X0 = π/2 , le iterate di Ng (x) = (x sin x + cos x) / (sin x + 1) convergono decrescendo ad α. Le istruzioni per il calcolo della 5a e 6a iterata di Ng sono: Clear [ N g , x ] Ng [ x ] = (x ∗ Sin [x] + Cos [x]) / (Sin [x] + 1) ; N [ Nest [ Ng , Pi/2 , 5 ] , 3 ] N [ Nest [ Ng , Pi /2 , 6 ] , 3] Output: 0, 739
,
0, 739.
L’indice x chiede di effettuare la valutazione della funzione Ng in tutti i casi in cui `e possibile, richiesta implicita nel caso di funzioni elementari come era il caso del coseno. L’istruzione Ng [x] = (x ∗ Sin [x] + Cos [x]) / (Sin [x] + 1) avrebbe invece prodotto Ng [Ng [Ng [Ng [Ng [1, 57]]]]]. 2) Iterazioni di g: gk (X0 ) converge ad α oscillando, ∀X0 ∈ R. Scegliamo X0 = π/2 e calcoliamo la 10a e 20a iterata: Clear [ f , x ] f [x] =Cos[x] N [ Nest [ f , Pi/2 , 10 ] , 3 ] N [ Nest [ f , Pi /2 , 20 ] , 3] Output:
0, 75
0, 739
3) Usando il risolutore di equazioni “FindRoot”: FindRoot [ {Cos [ x ] == x } , { x , 0 }] Output: 0,739085.
Numeri di Fibonacci I) I numeri di Fibonacci sono definiti dall’inizializzazione F0 = 0, F1 = 1 e dalla regola ricorsiva (a due passi) Fk+1 = Fk + Fk−1 . Pertanto le istruzioni Clear [ f , x ] f [0] = 0; f [1] = 1; f [x ] := f [x − 1] + f [x − 2]
374
Appendice H - Alcuni algoritmi e suggerimenti per simulazioni al computer
generano la funzione f [k] = Fk . Tuttavia anche se queste istruzioni consentono di a F50 d` a grossi problemi di tempo calcolare alcuni valori, ad esempio F20 = 6765, gi` di calcolo, perch´e il numero di operazioni necessarie `e molto elevato: si tratta di un algoritmo poco efficiente. II) Alternativamente, possiamo sfruttare l’espressione esplicita di Fk come l’in√ k √ tero pi` u vicino a 1 + 5 /2 / 5 ottenendo il valore approssimato di Fk con l’istruzione N [0, 5 ∗ ((1 + Sqrt [5]) ∗ 0, 5) ˆ50] La funzione N effettua un calcolo numerico approssimato. L’approssimazione potrebbe essere migliorata. Tuttavia `e meglio utilizzare una procedura algebrica esatta con qualche accortezza che eviti le difficolt` a del primo algoritmo. III) Un algoritmo efficiente per calcolare Fk basato sulla definizione ricorsiva deve tenere conto dei valori della successione gi` a calcolati e tabularli per non fare crescere eccessivamente il numero di operazioni necessarie (con la ripetizione di operazioni gi` a svolte): Clear [f, x] f [0] = 0; f [1] = 1; f [x ] := f [x] = f [x − 1] + f [x − 2] f [50] La penultima istruzione definisce una funzione f che “ricorda” tutti i valori che vengono calcolati. L’ultima calcola rapidamente il valore esatto del cinquantesimo numero di Fibonacci. L’efficienza del metodo `e tale da fornire rapidamente anche il valore di F100 : F50 = 12· 586· 269· 025 F100 = 354· 224· 848· 179· 261· 915· 075 c IV) Ancora pi` u rapido `e il ricorso ad una funzione predefinita nel Mathematica 4.1 che produce il k-esimo numero di Fibonacci:
Fibonacci [k]
Ragnatele di sistemi dinamici discreti Nel seguito riportiamo le istruzioni di un notebook (per il software Mathematica) simili a quelle con cui sono state generate le ragnatele nelle figure del testo. Nell’esempio si considera la logistica ha di parametro a = 3, 5 e se ne descrivono 20 iterazioni a partire dal dato iniziale X0 = 0, 1. Per adattare ad altre funzioni (che trasformano l’intervallo [0, 1] in s`e stesso), dati iniziali e/o numeri differenti di iterazioni, ` e sufficiente effettuare le opportune variazioni nelle righe 3, 5, 6 e 7. Segnaliamo le righe di commenti intercalati alle istruzioni mediante la sintassi: (* commento *).
Appendice H - Alcuni algoritmi e suggerimenti per simulazioni al computer (* Scelta del sistema dinamico e sua inizializzazione *) Clear [h, x] ; h [x ] := 3.5 ∗ x ∗ (1 − x) id [x ] := x StartingValue = .1 ; FirstIt = 0 ; LastIt = 20 ; xmin = 0 ; xmax = 1 ;
(* Calcolo delle iterate *) k = 0; y = N [StartingValue] ; DataTable = {{y, 0} , {y, h [y]} , {h [y] , h [y]}} ; While[k < LastIt, y = h [y] ; AppendTo[DataTable, {y, y}] ; AppendTo[DataTable, {y, h [y]}] ; k = k + 1] ; AppendTo[DataTable, {h [y] , h [y]}] ; (* Disegno della ragnatela *) Cobweb = ListPlot [ DataTable, PlotJoined − > True, PlotRange − > {{xmin, xmax} , {xmin, xmax}} , Ticks − > None, AspectRatio − > 1 , PlotStyle − > RGBColor[1, 0, 0] , DisplayFunction − > Identity ] ; a *) (* Disegno dei grafici di ha (logistica) e dell’identit` Graphh = Plot[h [x] , {x, xmin, xmax} , PlotRange − > {xmin, xmax} , AspectRatio − > 1 , Ticks − > None, PlotStyle − > {{Thickness [0.015] , RGBColor [0, 0, 1]}} , DisplayFunction − > Identity ] ; Graphid = Plot[id [x] , {x, xmin, xmax} , PlotRange − > {xmin, xmax} , AspectRatio − > 1 , Ticks − > None, DisplayFunction − > Identity ] ; (* Mostrare il risultato *) Show[Cobweb, Graphh, Graphid, DisplayFunction − > $DisplayFunction] ;
375
376
Appendice H - Alcuni algoritmi e suggerimenti per simulazioni al computer
Figura H.1 Una ragnatela della logistica ha con a = 3, 5
Riferimenti bibliografici
1. Bianchini M., Gori M., Scarselli F. (2005): Inside Page-Rank, ACM Transactions on Internet Technology, Vol.5, n.1, 92-128. 2. Brin S., Page L. (1998): The anatomy of a large-scale hypertextual web searching engine, Computer networks and ISDN Systems, 33, 107-117. 3. Devaney R.L. (2003): An Introduction to Chaotic Dynamical Systems. Westview Press, Boulder, Colorado. 4. Ekeland I. (1992): A caso. Bollati Boringhieri. Torino. 5. Gantmacher F.R. (2001): The Theory of matrices, Voll. 1-2, American Mathematical Society, Providence R.I. 6. Gleick J. (1989): Caos. Rizzoli. Milano. 7. Graham R.L., Knuth D., Patashnik O. (1996): Matematica Discreta. Hoepli. Milano. 8. Guerraggio A., Salsa S. (1997): Metodi Matematici per l’Economia e le Scienze Sociali. Giappichelli. Torino. 9. Haveliwala T.H., Kamvar S.D. (2003): The second eigenvalue of the Google matrix, technical report, Stanford University. 10. Hirsch M.W., Smale S., Devaney R.L. (2004): Differential Equations, Dynamical Systems and an Introduction to Chaos. Elsevier Academic Press. New York. 11. Jain A. (1989): Fundamentals of Digital Image Processing. Prentice-Hall. Englewood Cliff. 12. Leslie P.H. (1945): On the use of matrices in certain population mathematics, Biometrika, 33, 3 183-212. 13. Peitgen H.O., J¨ urgens H., Saupe D. (1999): Fractals for the Classroom: Strategic Activities vol.III. Springer-Verlag. Berlin-Heidelberg. 14. Poincar´e H. (1995): Geometria e Caso. Bollati Boringhieri. Torino. 15. Quarteroni A., Sacco R., Saleri F. (2008): Numerical Mathematics. Third edition. Texts in Applied Mathematics, 37. Springer-Verlag. Berlin. 16. Ruelle D. (1992): Caso e Caos. Bollati Boringhieri. Torino. 17. Seneta E. (2006): Non-Negative Matrices and Markov chains, Springer Series in Statistics. New York. 18. Sirovich L. (1988): Introduction to Applied Mathematics. Springer-Verlag. New York. 19. Wolfram S. (1999): The Mathematica Book, IV ed., Wolfram Media Cambridge University Press. Champaign.
Indice analitico
algoritmo – PageRank, 282 algoritmo Fast Fourier Transform, 78 allele, 187 ammortamento, 21 attrattore, 104 autovalore, 186 – dominante, 205 autovettore, 186
componente fortemente connessa, 273 – periodo di, 276 coniugazione topologica, 163 contrazione, 101 convoluzione circolare, 82 convoluzione discreta, 55, 344 costante di Feigenbaum, 149 Cramer, regola di, 354 crescita logistica a tempo continuo , 166
bacino di attrazione, 104 biforcazione – a forchetta, 142 – raddoppio di periodo, 142 – sella-nodo, 142 – transcritica, 142 bordo, 360 box counting dimension, 363
derivata schwarziana, 137 determinante di Vandermonde, 38 DFT, 75 diagramma di biforcazione, 139 dimensione di Hausdorff, 362 discretizzazione di un’equazione differenziale, 14, 15 distribuzione di probabilit` a – iniziale, 240 – invariante, 256 disuguaglianza di Cauchy-Schwarz, 350
cammino, 272 Casoratiano, 65 catena di Markov, 237 – assorbente, 244 – irriducibile, 280 – regolare, 242 chiusura, 360 ciclo, 91 – localmente asintoticamente stabile, 117 – repulsivo, 117 classe comunicante, 279 – chiusa, 279 coefficienti di Fourier, 73 complessit` a computazionale, 77
effetto leva, 309 equazione – dei tre momenti, 17 – del calore, 15 – di Airy, 13 – di Bessel, 23 – di Black-Scholes, 23 – di d’Alembert, 23 – di Hermite, 23 – di Laguerre, 23 – di Laplace, 23 – di Legendre, 23
380
Indice analitico
– di Riccati, 304 equazione alle differenze – di ordine n, 2 – lineare, a coefficienti costanti del primo ordine, non omogenea, 26 del primo ordine, omogenea, 25 di ordine n, non omogenea, 40, 48 di ordine n, omogenea, 33 – lineare, a coefficienti variabili del primo ordine, non omogenea, 63 del primo ordine, omogenea, 62 di ordine n, omogenea, 65 equazione caratteristica, 34 equilibrio, 41, 90 – asintoticamente stabile, 103 superiormente, 108 – attrattivo, 41, 43 superiormente, 108 – di un s.d.d. vettoriale lineare, 197 – di un’equazione lineare, 26 – globalmente attrattivo, 103 – instabile, 103, 171 – instabile superiormente, 108 – iperbolico, 108 – localmente attrattivo, 103, 171 – neutro, 108 – repulsivo, 106 – repulsivo superiormente, 108 – semistabile superiormente, 108 – stabile, 42, 43, 102, 171 – superattrattivo, 108 FFT, 78 filtro causale, 80 flops, 79 forma canonica di Jordan, 357 formule di De Moivre, 346 frattali autosimili di Hutchinson, 362 frazione continua, 72 frontiera, 360 funzione – continua, 359 – di trasferimento, 55 – lineare fratta, 68 – logistica, 130 – tenda, 151 – topologicamente transitiva, 154 Google, 282
grafo, 271 – fortemente connesso, 273 – orientato, 271 impulso, 52 insieme – aperto, 359 – aperto connesso, 360 – chiuso, 360 – denso, 360 – di Cantor, 157 – di Cantor t-medio, 161 – di Julia, 182 – di tipo Cantor, 161 – frattale, 157, 362 – invariante, 104 – localmente attrattivo, 104 – totalmente sconnesso, 158 interesse – composto, 4 – semplice, 4 interno, 360 iterata k-esima, 88 legge – di Bayes, 349 – di Hardy-Weinberg, 188 matrice – ciclica, 269 – debolmente positiva, 205 – del cambio di base, 355 – di adiacenza, 273 – di Casorati, 65 – di permutazione, 260, 263 – di rotazione, 200 – di transizione, 238 – forma elementare di Frobenius, 196 – irriducibile, 264 – nilpotente, 202, 358 – periodo di una, 276 – positiva, 205 – primitiva, 269 – riducibile, 264 – semisemplice, 352 – sparsa, 221 – strettamente positiva, 205 medie mobili, 57 metodo
Indice analitico – di decomposizione LU, 226 – di Eulero esplicito, 15, 17, 166, 223, 331 – di Eulero implicito, 14, 16, 166, 224, 332 – di Gauss-Seidel, 228 – di Jacobi, 228 – di Newton, 167, 172 – SOR, 227 misura di Hausdorff, 361 modello – della ragnatela, 6 – di crescita logistica, 8 – di decadimento radioattivo, 6 – di Leslie, 11 – di Lotka-Volterra, 9, 219 – di Malthus, 8 mutuo, 5 nodo, 271 – aperiodico, 275 – connesso, 272 – fortemente connesso, 272 – periodo di un, 275 norma – di una matrice, 218 numeri di Fibonacci, 10 obbligazione – fixed-reverse, 5 – reverse-floater, 84 – zero-coupon, 22 omeomorfismo, 106 orbita, 89 – asintoticamente stabile, 105 – definitivamente periodica, 92 – definitivamente stazionaria, 91 – periodica, 91 – periodo dell’, 91 – stabile, 105 – stazionaria, 90 ordinamento di Sharkovsky, 133 pagina dangling, 286 parte interna, 360 periodo di un nodo, 275 piano delle fasi, 204 polinomio caratteristico, 34 polinomio minimo, 268
381
principio – del massimo discreto, 295 – di induzione, 2 – di mutazione, 191 – di selezione, 189 probabilit` a di transizione, 237 quadro delle fasi, 89 query, 283 raddoppio di fase, 153 ragnatele, 96 relazione ricorsiva, 3 repulsore, 105 rovina del giocatore, 12, 84, 233 Ruffini-Horner, algoritmo di, 77 s.d.d., 87 segnale – di Heaviside, 52 – di Kronecker, 52 – lineare, 52 serie di Fourier, 73 Sierpinski gasket, 162 simplesso, 240 sistema – mal condizionato, 229 sistema causale, 80 sistema dinamico discreto – affine, 89 – caotico, 154 – complesso, 170 – del primo ordine, autonomo, 87 – di ordine n, autonomo, 184 – lineare, 89 – non lineare, 89 – vettoriale, 218 – vettoriale, lineare non omogeneo, 214 omogeneo, 197 positivo, 204 soluzione – di un’equazione alle differenze, 3 soluzione generale – di un’equazione alle differenze, 3 somma – di una progressione aritmetica, 32 – di una progressione geometrica, 32 somme parziali, 64
382
Indice analitico
stati – comunicanti, 279 stato – accessibile, 279 – aperiodico, 281 – assorbente, 244 – ricorrente, 281 – transiente, 281 successione, 1 – periodica, 72 tempo di dimezzamento, 6 Teorema – di Frobenius, 269 teorema – delle contrazioni, 101 – di Cayley - Hamilton, 356 – di esistenza ed unicit` a, 3 – di Fatou, 146 – di Frobenius-Perron, 205
– di Li Yorke, 161 – di Markov-Kakutani, 256 – di Rouch´e-Capelli, 354 – di Schur, 47 – di Sharkovskii, 134 – Fondamentale dell’Algebra, 347 – spettrale, 356 topologia, 359 – euclidea, 359 trasformata discreta di Fourier, 75 trasformazione – di Moebius, 68 valore attuale, 84 valore di biforcazione, 140 valore iniziale, 89 vita media, 6 Zeta trasformata, 51
Collana Unitext - La Matematica per il 3+2 a cura di F. Brezzi (Editor-in-Chief) P. Biscari C. Ciliberto A. Quarteroni G. Rinaldi W.J. Runggaldier Volumi pubblicati. A partire dal 2004, i volumi della serie sono contrassegnati da un numero di identificazione. I volumi indicati in grigio si riferiscono a edizioni non più in commercio A. Bernasconi, B. Codenotti Introduzione alla complessità computazionale 1998, X+260 pp. ISBN 88-470-0020-3 A. Bernasconi, B. Codenotti, G. Resta Metodi matematici in complessità computazionale 1999, X+364 pp, ISBN 88-470-0060-2 E. Salinelli, F. Tomarelli Modelli dinamici discreti 2002, XII+354 pp, ISBN 88-470-0187-0 S. Bosch Algebra 2003, VIII+380 pp, ISBN 88-470-0221-4 S. Graffi, M. Degli Esposti Fisica matematica discreta 2003, X+248 pp, ISBN 88-470-0212-5 S. Margarita, E. Salinelli MultiMath - Matematica Multimediale per l’Università 2004, XX+270 pp, ISBN 88-470-0228-1
A. Quarteroni, R. Sacco, F. Saleri Matematica numerica (2a Ed.) 2000, XIV+448 pp, ISBN 88-470-0077-7 2002, 2004 ristampa riveduta e corretta (1a edizione 1998, ISBN 88-470-0010-6) 13. A. Quarteroni, F. Saleri Introduzione al Calcolo Scientifico (2a Ed.) 2004, X+262 pp, ISBN 88-470-0256-7 (1a edizione 2002, ISBN 88-470-0149-8) 14. S. Salsa Equazioni a derivate parziali - Metodi, modelli e applicazioni 2004, XII+426 pp, ISBN 88-470-0259-1 15. G. Riccardi Calcolo differenziale ed integrale 2004, XII+314 pp, ISBN 88-470-0285-0 16. M. Impedovo Matematica generale con il calcolatore 2005, X+526 pp, ISBN 88-470-0258-3 17. L. Formaggia, F. Saleri, A. Veneziani Applicazioni ed esercizi di modellistica numerica per problemi differenziali 2005, VIII+396 pp, ISBN 88-470-0257-5 18. S. Salsa, G. Verzini Equazioni a derivate parziali - Complementi ed esercizi 2005, VIII+406 pp, ISBN 88-470-0260-5 2007, ristampa con modifiche 19. C. Canuto, A. Tabacco Analisi Matematica I (2a Ed.) 2005, XII+448 pp, ISBN 88-470-0337-7 (1a edizione, 2003, XII+376 pp, ISBN 88-470-0220-6) 20. F. Biagini, M. Campanino Elementi di Probabilità e Statistica 2006, XII+236 pp, ISBN 88-470-0330-X
21. S. Leonesi, C. Toffalori Numeri e Crittografia 2006, VIII+178 pp, ISBN 88-470-0331-8 22. A. Quarteroni, F. Saleri Introduzione al Calcolo Scientifico (3a Ed.) 2006, X+306 pp, ISBN 88-470-0480-2 23. S. Leonesi, C. Toffalori Un invito all’Algebra 2006, XVII+432 pp, ISBN 88-470-0313-X 24. W.M. Baldoni, C. Ciliberto, G.M. Piacentini Cattaneo Aritmetica, Crittografia e Codici 2006, XVI+518 pp, ISBN 88-470-0455-1 25. A. Quarteroni Modellistica numerica per problemi differenziali (3a Ed.) 2006, XIV+452 pp, ISBN 88-470-0493-4 (1a edizione 2000, ISBN 88-470-0108-0) (2a edizione 2003, ISBN 88-470-0203-6) 26. M. Abate, F. Tovena Curve e superfici 2006, XIV+394 pp, ISBN 88-470-0535-3 27. L. Giuzzi Codici correttori 2006, XVI+402 pp, ISBN 88-470-0539-6 28. L. Robbiano Algebra lineare 2007, XVI+210 pp, ISBN 88-470-0446-2 29. E. Rosazza Gianin, C. Sgarra Esercizi di finanza matematica 2007, X+184 pp, ISBN 978-88-470-0610-2 30. A. Machì Gruppi - Una introduzione a idee e metodi della Teoria dei Gruppi 2007, XII+349 pp, ISBN 978-88-470-0622-5
31. Y. Biollay, A. Chaabouni, J. Stubbe Matematica si parte! A cura di A. Quarteroni 2007, XII+196 pp, ISBN 978-88-470-0675-1 32. M. Manetti Topologia 2008, XII+298 pp, ISBN 978-88-470-0756-7 33. A. Pascucci Calcolo stocastico per la finanza 2008, XVI+518 pp, ISBN 978-88-470-0600-3 34. A. Quarteroni, R. Sacco, F. Saleri Matematica numerica (3a Ed.) 2008, XVI+510 pp, ISBN 978-88-470-0782-6 35. P. Cannarsa, T. D’Aprile Introduzione alla teoria della misura e all’analisi funzionale 2008, XII+268 pp, ISBN 978-88-470-0701-7 36. A. Quarteroni, F. Saleri Calcolo scientifico (3a Ed.) 2008, XIV+358 pp. ISBN 978-88-470-0837-3 37. C. Canuto, A. Tabacco Analisi Matematica I, 3a edizione 2008, XIV+452 pp, ISBN 978-88-470-0871-7 38. S. Gabelli Teoria delle Equazioni e Teoria di Galois 2008, XVI+410 pp, ISBN 978-88-470-0618-8 39. A. Quarteroni Modellistica numerica per problemi differenziali (4a Ed.) 2008, XVI+560 pp, ISBN 978-88-470-0841-0
40. C. Canuto, A. Tabacco Analisi Matematica II 2008, XVI+536 pp, ISBN 978-88-470-0873-1 41. E. Salinelli, F. Tomarelli Modelli Dinamici Discreti 2009, XIV+382 pp, ISBN 978-88-470-1075-8