Esempi di matrici associate (2)

Messaggioda Sergio » 10/09/2009, 08:11

Negli esempi precedenti erano date sia l'applicazione in forma generale che le basi (per "forma generale" intendo che viene data l'immagine del generico vettore del dominio). Altre volte vengono date solo le immagini di alcuni vettori e si deve risalire all'applicazione.

Osservazione. Se un'applicazione lineare $T:RR^n to RR^m$ viene data in forma generale, la matrice $A$ associata rispetto alle basi canoniche si trova subito, senza bisogno di calcoli; basta scrivere la matrice che ha in ciascuna riga elementi uguali ai coefficienti degli elementi del generico vettore del dominio che intervengono nella definizione del corrispondente elemento dell'immagine:
$T((x),(y),(z))=((-x+y+z),(y-z),(x+z))$, $A=((-1,1,1),(0,1,-1),(1,0,1))$
Infatti:
$((-1,1,1),(0,1,-1),(1,0,1))((x),(y),(z))=((-x+y+z),(y-z),(x+z))$
Da notare che $A$ è la matrice associata rispetto alle basi canoniche in quanto si è ragionato in termini di vettori del dominio e del codominio, e solo rispetto alle basi canoniche vettori e vettori di coordinate coincidono.
Viceversa, se si ha la matrice associata all'applicazione rispetto alle basi canoniche del dominio e del codominio, si risale immediatamente all'applicazione.
Questo vuol dire che, se si hanno solo le immagini di alcuni vettori, per risalire da essi all'applicazione si deve cercare la matrice associata alle basi canoniche.

Esempio 3. Sia $T:RR^3 to RR^2$ un'applicazione lineare tale che:
$T((1),(-2),(0))=((1),(-2))$, $" "T((0),(-2),(1))=((1),(-3))$, $" "T((0),(1),(0))=((0),(1))$
trovare l'applicazione.
Per trovare l'applicazione, mi serve la matrice associata rispetto alle base canoniche.
Per trovare questa, occorrono le immagini degli elementi della base canonica, ma ne ho solo una, quella di $(0,1,0)$. Che faccio?
Nei casi più complessi può essere necessario impostare un piccolo sistema, qualcosa del tipo:
$((1),(0),(0))=a((1),(-2),(0))+b((0),(-2),(1))+c((0),(1),(0)) => {(a=1),(-2a-2b+c=0),(b=0) :}$
si tratta cioè di esprimere ciascun vettore della base canonica come combinazione lineare dei vettori del dominio che conosco e trovare i relativi coefficienti. Come si vede, in questo caso il sistema è di facilissima soluzione e possiamo saltare i passaggi (ci si arriva anche "a occhio"):
$T((1),(0),(0))=T( ((1),(-2),(0))+2((0),(1),(0)) )=T((1),(-2),(0))+2T((0),(1),(0))=((1),(-2))+2((0),(1))=((1),(0))$
$T((0),(1),(0))=((0),(1))$ già ce l'ho
$T((0),(0),(1))=T( ((0),(-2),(1))+2((0),(1),(0)) )=T((0),(-2),(1))+2T((0),(1),(0))=((1),(-3))+2((0),(1))=((1),(-1))$
Mi basta mettere in colonna le immagini per ottenere la matrice: $A=((1,0,1),(0,1,-1))$
da cui l'applicazione: $T((x),(y),(z))=((x+z),(y-z))$.
Ultima modifica di Sergio il 22/09/2012, 10:00, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2378 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Nucleo e immagine di un'applicazione lineare (2)

Messaggioda Sergio » 10/09/2009, 10:47

Abbiamo già visto (qui) cosa sono il nucleo e l'immagine di un'applicazione lineare e, in particolare, a cosa serve il nucleo (a capire se l'applicazione è iniettiva). Ora vediamo come si trovano, grazie ad una matrice associata, il nucleo e l'immagine (esempi di calcolo della matrice associata qui e qui).

Trovare il nucleo è facile. Data un'applicazione $T:V to W$, con $"dim "V=n$ e $"dim "W=m$, se una volta fissate le basi si è trovata la matrice $m times n$ associata $A$, la definizione del nucleo:
$"Ker"(T)=\{v in V" : "T(v)=0_W\}$
diventa:
$"Ker"(T)=\{v in V" : "x = "Coord"(v), Ax=0_{RR^m}\}" "$ (ricordo che una matrice opera sempre su vettori di coordinate)
Si tratta quindi di risolvere un normale sistema lineare omogeneo $Ax=0$ per trovare una base (quindi anche la dimensione) del nucleo.

Esempio 1 Riprendiamo l'esempio 2 già proposto qui: un'applicazione $T((a,b),(b,c))=a-b+(b-c)t+(b-c)t^2+(a-b)t^3$ con matrice associata $A=((1,-1,0),(0,1,-1),(0,1,-1),(1,-1,0))$ rispetto alle basi $B=\{((1,0),(0,0)),((0,1),(1,0)),((0,0),(0,1))\}$ per il dominio e $C=\{1,t,t^2,t^3\}$ per il codominio. Costruiamo il sistema $Ax=0$ e risolviamolo. Riducendo la matrice a gradini otteniamo un sistema equivalente più semplice ed il relativo insieme delle soluzioni (queste cose in genere si sanno fare):
$Ax=0 " "=>" " {(x_1-x_3=0),(x_2-x_3=0) :} " "=>" " "Sol"(A,0)=\{t((1),(1),(1))" : "t in RR\}$
La dimensione del nucleo è chiaramente $1$, ma...
Attenzione! Quel $((1),(1),(1))$ non è l'elemento di una base del nucleo!
Lo sarebbe se il dominio fosse $RR^3$ (il nucleo è un sottospazio del dominio) e se la matrice fosse associata all'applicazione rispetto alle basi canoniche. Qui il dominio è uno spazio vettoriale di matrici simmetriche di ordine 2, quindi bisogna passare da quello che si è ottenuto, un vettore di coordinate, al corrispondente vettore del dominio, cioè alla corrispondente matrice. Essendo $B=\{((1,0),(0,0)),((0,1),(1,0)),((0,0),(0,1))\}$ la base fissata per il dominio, una base del nucleo ha come unico elemento la matrice $((1,1),(1,1))$.
Infatti: $T((1,1),(1,1))=1-1+(1-1)t+(1-1)t^2+(1-1)t^3=0$.

Trovare l'immagine è altrettanto facile, ma si rischia di inciampare... Analogamente a quanto abbiamo già visto per il nucleo, data un'applicazione $T:V to W$, con $"dim "V=n$ e $"dim "W=m$, se una volta fissate le basi si è trovata la matrice $m times n$ associata $A$, la definizione dell'immagine:
$"Im"(T)=\{w in W" : "w=T(v), v in V\}$
diventa:
$"Im"(T)=\{w in W" : "w = "Coord"^(-1)(y), Ax=y, x="Coord"(v), v in V\}$
ovvero: l'immagine è costituita da quelli elementi di $W$ le cui coordinate rispetto alla base fissata per il codominio sono il risultato del prodotto di $A$ per le coordinate di un qualsiasi elemento del dominio.
In pratica, purché si ricordi che le matrici operano solo su coordinate, basta limitarsi a $Ax=y$ ricordando che il prodotto $Ax$ non è altro che una combinazione lineare delle colonne di $A$ i cui coefficienti sono i componenti di $x$ (cfr. qui).
Questo vuol dire che l'immagine di $T$, in quanto generata dal prodotto $Ax$ [1], ha una dimensione pari al numero di colonne di $A$ linearmente indipendenti.
Conseguenza: la dimensione dell'immagine non è altro che il rango di $A$.
Possibile impiccio: per trovare una base dell'immagine si devono trovare le colonne linearmente indipendenti di $A$, ma si è troppo abituati a ridurre una matrice per righe...
Soluzioni:
b) si può ridurre la matrice $A$ per colonne: meglio evitare perché, essendo abituati a ridurre per righe, si rischiano errori tanto banali quanto probabili;
a) si riduce la matrice per righe e poi si prendono le colonne di $A$ corrispondenti ai pivot della matrice ridotta; da ricordare che non si possono prendere le colonne della ridotta;
b) si traspone la matrice (facile) e si riduce per righe la trasposta; in questo caso, si possono prendere tranquillamente le righe non nulle della ridotta che, rimesse in colonna, costituiscono le coordinate degli elementi di una base dell'immagine anche se non sono uguali alle colonne di $A$.

Esempio 2. Proseguiamo l'esempio precedente.
Ridurre $A$ per righe si può fare in tanti modi; diciamo che una possibile riduzione potrebbe essere:
$((1,-1,0),(0,1,-1),(0,1,-1),(1,-1,0))" "=>" "((1,0,-1),(0,1,-1),(0,0,0),(0,0,0))$
Nella ridotta ci sono due pivot (la radice ha rango 2), prendo le corrispondenti colonne di $A$ e ho trovato una base:
$\{((1),(0),(0),(1))","((-1),(1),(1),(-1))\}$
Giusto? Sbagliato! Ho ottenuto due vettori di coordinate degli elementi di una base. L'immagine è un sottospazio di polinomi, quindi la sua base così trovata è:
$\{(1+t^3)","(-1+t+t^2-t^3)\}$
Da notare che, se avessi preso le colonne con i pivot della ridotta, non sarei arrivato ad una base. Sarei infatti arrivato a $\{(1),(t)\}$, cioè a due polinomi che non possono generare polinomi di grado superiore a 1, ma avevamo già visto che, per quanto l'immagine sia un sottospazio del codominio, l'applicazione può convertire matrici simmetriche anche in polinomi di 3° grado.
Proviamo ora a trasporre ed a ridurre per righe:
$A^T=((1,0,0,1),(-1,1,1,-1),(0,-1,-1,0))" "=>" "((1,0,0,1),(0,1,1,0),(0,0,0,0))$
Prendo le righe linearmente indipendenti, le rimetto in colonna e ottengo.... le coordinate degli elementi di una base:
$\{((1),(0),(0),(1))","((0),(1),(1),(0))\}" "$ cioè la base trovata è: $" "\{(1+t^3)","(t+t^2)\}$.
Il primo vettore di coordinate è uguale alla prima colonna di $A$, il secondo no, ma è uguale alla terza moltiplicata per $-1$; notiamo però che, così come i polinomi della base trovata prima possono generare quelli della base trovata ora, anche questi possono generare quelli. Infatti, il primo polinomio è comune e, per il resto:
$-1+t+t^2-t^3=-(1+t^3)+(t+t^2)$
$t+t^2=(-1+t+t^2-t^3)+(1+t^3)$
quindi entrambe le basi vanno bene.

EDIT: Corretta svista segnalata da ham_burst, che ringrazio.

------------------------------
[1] Qualcuno potrebbe obiettare: ma come? Non hai detto che le matrici operano solo su coordinate? E allora come fai a dire che l'immagine è generate da un prodotto per un vettore di coordinate? Risposta: come avevo mostrato qui, è indifferente operare sui vettori di un qualsiasi spazio vettoriale o sui vettori delle loro coordinate, a condizione che si ricordi che se si opera sulle coordinate si devono poi convertire le coordinate in vettori (questo perché qualsiasi spazio vettoriale di dimensione $n$ è isomorfo a $RR^n$, che è lo spazio delle coordinate dei suo vettori rispetto ad una base).
Ultima modifica di Sergio il 06/09/2011, 22:22, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2380 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Re: Spazo vettoriali

Messaggioda Sergio » 13/09/2009, 21:52

Robbyx ha scritto:Ciao!
Scusa non ho capito l'esempio 5 degli spazi vettoriali quello con la quaterna e il vettore di una colonna...non ho capito perchè non valgono le proprietà di addizione e moltiplicazione

Si parla di un sottoinsieme di $RR^4$ così definito:
$W=\{((a+b),((a-b)/(a^2+1)),(a),(b))" : " a,b in RR\}$
Si può procedere come negli esempi precedenti, prendendo due elementi generici di $W$ e facendone per prima cosa la somma:
$((a+b),((a-b)/(a^2+1)),(a),(b))+((c+d),((c-d)/(c^2+1)),(c),(d))=((a+b+c+d),(((a-b)(c^2+1)+(c-d)(a^2+1))/((a^2+1)(c^2+1))),(a+c),(b+d))=$
$=(((a+c)+(b+d)),(((a+c-b-d)+(ac^2-bc^2+ac^2-a^2d))/(a^2+a^2c^2+c^2+1)),((a+c),(b+d)))$
Se guardi il terzo ed il quarto elemento del risultato della somma, il terzo elemento è diventato $(a+c)$, il quarto è diventato $(b+d)$.
Il primo elemento di un vettore di $W$ deve essere uguale alla somma del terzo e del quarto, e ci siamo.
Il secondo, però, dovrebbe essere uguale alla differenza tra il terzo e il quarto, divisa per il quadrato del terzo aumentato di $1$; dovrebbe cioè essere uguale a:
$((a+c)-(b+d))/((a+c)^2+1)=((a+c)-(b+d))/(a^2+2ac+c^2+1)$
Come vedi, non ci siamo proprio. Basterebbe questo per concludere che $W$, pur essendo sottoinsieme di uno spazio vettoriale, non è a sua volta uno spazio vettoriale.
In realtà i calcoli sono un po' noiosi e si intuisce facilmente che $W$ non può essere uno spazio vettoriale, perché nella definizione del secondo elemento dei suoi vettori intervengono operazioni diverse da quelle tipiche di uno spazio vettoriale, quali l'elevazione al quadrato e la divisione.
Fermo restando che nulla vieta di fare quei calcoli noiosi, se si trova un solo esempio che consenta di smentire l'ipotesi che $W$ sia uno spazio vettoriale si fa prima. Come fare? Basta dare un valore semplice, cioè $1$, ad $a$ (in quanto $a$ è coinvolto sia nell'elevazione che nella divisione) e $0$ a $b$. Si ottiene così un controesempio.
Spero sia chiaro, altrimenti riproviamo.

PS: Ho modificato l'esempio. Mi dici se ora risulta più chiaro?
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2389 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Teorema della nullità e del rango

Messaggioda Sergio » 14/09/2009, 09:46

Argomento breve, ma importante.
Avevamo visto, parlando di nucleo e immagine di un'applicazone lineare, che:
a) data un'applicazione lineare $T:V to W$, con $V$ di dimensione $n$ e $W$ di dimensione $m$, si ha:

$n="dim "V="dim Ker"(T)+"dim Im"(T)$

b) un'applicazione lineare $T$ è iniettiva se e solo se $"dim Ker"(T)=0$.
Avevamo poi visto, parlando di matrici associate, che:
c) tali matrici hanno un numero di colonne $n$ pari alla dimensione del dominio e un numero di righe $m$ pari alla dimensione del codominio;
d) la dimensione dell'immagine di un'applicazione lineare $T$ è pari al numero di colonne indipendenti della matrice associata $A$, cioè al suo rango.
Infine, parlando ancora di nucleo e immagine, avevamo visto che:
e) il nucleo di un'applicazione lineare $T$, cui sia associata la matrice $A$, si trova risolvendo un sistema lineare omogeneo $Ax=0$.

Chiamiamo nucleo di una matrice lo spazio delle soluzioni del sistema $Ax=0$ e nullità la sua dimensione, che corrisponde in tutto e per tutto alla dimensione del nucleo, o kernel, dell'applicazione cui la matrice è associata.
Sostituendo $"dim "V$ con $n$, $"dim Ker"(T)$ con $"null"(A)$ e $"dim Im"(T)$ con $"rango"(A)$, otteniamo:

$n="null"(A)+"rango"(A)$

Ovvero: il numero di colonne di una matrice è pari alla somma del suo rango e della sua nullità.

Questo consente di indagare le caratteristiche di un'applicazione lineare osservando una sua matrice associata. In particolare:
1) una volta trovato il rango $r$ della matrice, la dimensione del nucleo dell'applicazione è $n-r$;
2) se una matrice ha rango pieno, cioè rango uguale al numero delle colonne (ancora: se le sue colonne sono linearmente indipendenti), allora ha nullità $0$, quindi l'applicazione è iniettiva;
3) quando dominio e codominio hanno la stessa dimensione, dunque quando la matrice associata è quadrata, se questa ha rango pieno allora è invertibile, quindi è tale anche l'applicazione (esiste l'applicazione inversa). E' infatti anche suriettiva, perché la dimensione dell'immagine è uguale a quella del codominio.

EDIT: Corretta svista segnalata da ham_burst, che ringrazio.
Ultima modifica di Sergio il 06/09/2011, 22:24, modificato 2 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2391 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Matrici di cambiamento di base

Messaggioda Sergio » 14/09/2009, 10:53

Primo approccio.
Una matrice di cambiamento di base è una matrice associata ad un'applicazione lineare di uno spazio vettoriale in se stesso [1], essendo quell'applicazione nient'altro che l'applicazione identità, che associa ciascun vettore a se stesso (ma rispetto ad una base diversa).
Invece di avere $T:V to W$, con $B$ base di $V$ e $C$ base di $W$, si ha, più semplicemente, $Id:V to V$, con $B$ base di partenza e $C$ base di arrivo.
Invece di calcolare l'immagine di ogni elemento della base di partenza, per convertirla nel vettore di coordinate rispetto alla base di arrivo, si convertono direttamente gli elementi della base di partenza, in quanto $T(v)=v$.
In sostanza, se si ha familiarità con le matrici associate ad applicazioni lineari, si sa già tutto quello che occorre sapere.

Secondo approccio
Si possono studiare le matrici di cambiamento di base anche prima del caso più generale, usando una definizione come la seguente:

Matrice di cambiamento di base: dati uno spazio vettoriale $V$ di dimensione $n$ e due sue basi $B$ e $C$, la matrice del cambiamento di base da $B$ a $C$ è una matrice quadrata di ordine $n$ le cui colonne sono costituite dalle coordinate degli elementi della base di partenza, $B$, rispetto alla base d'arrivo $C$.

Per capire come mai la matrice sia fatta in quel modo, si può pensare ad un semplice esempio in cui $V$ abbia dimensione $2$, con $B=\{b_1,b_2\}$ e $C=\{c_1,c_2\}$.

Scelto un elemento $v$ di $V$, lo esprimiamo come combinazione lineare degli elementi di $B$:
$v = x_1b_1+x_2b_2" "$ quindi $(x_1,x_2)$ è il vettore delle sue coordinate rispetto a $B$
Dato che ci interessano le coordinate di $v$ rispetto a $C$, esprimiamo $b_1$ e $b_2$ come combinazioni lineari degli elementi di $C$:
$b_1=a_(11)c_1+a_(21)c_2$, $b_2=a_(12)c_1+a_(22)c_2$
Scriviamo quindi:
$v=x_1(a_(11)c_1+a_(21)c_2)+x_2(a_(12)c_1+a_(22)c_2)=x_1a_(11)c_1+x_2a_(12)c_1+x_1a_(21)c_2+x_2a_(22)c_2=$
$=(x_1a_(11)+x_2a_(12))c_1+(x_1a_(21)+x_2a_(22))c_2$
Il vettore delle coordinate di $v$ rispetto a $C$ è quindi $((x_1a_(11)+x_2a_(12)),(x_1a_(21)+x_2a_(22)))$.
Per ottenerlo, basta moltiplicare il vettore delle coordinate rispetto a $B$, $(x_1,x_2)$, per una matrice $2 times 2$ che abbia come colonne le coordinate degli elementi di $B$ rispetto a $C$; infatti:
$((a_(11),a_(12)),(a_(21),a_(22)))((x_1),(x_2))=((x_1a_(11)+x_2a_(12)),(x_1a_(21)+x_2a_(22)))$

Questo vuol dire che, se ho le coordinate rispetto a $B$ di un qualsiasi vettore, moltiplicando quella matrice per esse ottengo le coordinate rispetto a $C$ dello stesso vettore.

Caratteristiche delle matrici di cambiamento di base
Abbiamo già notato che le matrici di cambiamento di base sono tutte quadrate. Infatti, se moltiplico una tale matrice per un vettore di $n$ componenti, la matrice deve avere $n$ colonne; ma devo ottenere ancora un vettore di $n$ componenti, quindi la matrice deve avere anche $n$ righe.
Aggiungiamo ora che tali matrici sono anche sempre invertibili. Un'applicazione identità, che manda ciascun vettore in se stesso, è infatti chiaramente biiettiva. In particolare, è iniettiva e quindi il suo nucleo ha dimensione $0$. Il teorema della nullità e del rango ci dice che la matrice quadrata associata, avendo nullità $0$, ha rango pari al numero delle colonne, quindi è invertibile.

Esempio. Immaginiamo di lavorare con lo spazio vettoriale $RR^3$ e di rappresentarlo come un familiare spazio tridimensionale: se scegliamo un qualsiasi vettore, diciamo $v=(3,2,1)$, avremo che $3$ è l'ascissa, $2$ l'ordinata e $1$ la quota. Il normale sistema di riferimento non è altro che la base canonica: $(1,0,0)$ è il vettore unitario (l'unità di misura) per l'asse $x$ delle ascisse, $(0,1,0)$ quello per l'asse $y$ delle ordinate, $(0,0,1)$ quello per l'asse $z$ delle quote. Usando questo sistema di riferimento (usando la base canonica $E$), un vettore ed il vettore delle sue coordinate coincidono: $(3,2,1)$ è, al tempo stesso, sia un vettore (un punto) di $RR^3$, sia il suo vettore di coordinate rispetto alla base canonica.
Ora cambiamo sistema di riferimento (cambiamo base), orientando l'asse delle ordinate nel verso opposto e scambiando l'ordinata con la quota. In sostanza, la nuova base diventa $E'=\{((1),(0),(0))","((0),(0),(1))","((0),(-1),(0))\}$.
Facile vedere che, rispetto alla nuova base, il vettore $v$ ha coordinate $(3,1,-2)$. Proviamo a costruire la matrice di cambiamento di base e verifichiamo che trasformi effettivamente le coordinate in questo modo.
Troviamo le coordinate rispetto a $E'$ degli elementi di $E$:
$((1),(0),(0))=1((1),(0),(0))+0((0),(0),(1))+0((0),(-1),(0))" "$ quindi $" Coord"((1),(0),(0))=((1),(0),(0))$
$((0),(1),(0))=0((1),(0),(0))+0((0),(0),(1))-1((0),(-1),(0))" "$ quindi $" Coord"((0),(1),(0))=((0),(0),(-1))$
$((0),(0),(1))=0((1),(0),(0))+1((0),(0),(1))+0((0),(-1),(0))" "$ quindi $" Coord"((0),(0),(1))=((0),(1),(0))$
Verifichiamo ora che la matrice che abbia per colone le coordinate trovate trasforma effettivamente $v=(3,2,1)$ nel vettore di coordinate $(3,1,-2)$:
$((1,0,0),(0,0,1),(0,-1,0))((3),(2),(1))=((3),(1),(-2))$
Funziona.

Da notare che $(3,1,-2)$ non è un altro vettore! E' sempre il vettore $(3,2,1)$, questa volta però espresso in termini delle sue coordinate rispetto alla base di arrivo $E'$. Infatti,
$3((1),(0),(0))+1((0),(0),(1))-2((0),(-1),(0))=((3),(2),(1))$

Verifichiamo anche che la matrice, una volta invertita, ci consente di passare dalle coordinate rispetto a $E'$ a quelle rispetto alla base canonica:
se $A=((1,0,0),(0,0,1),(0,-1,0))$, allora $A^(-1)=((1,0,0),(0,0,-1),(0,1,0))$, infatti $((1,0,0),(0,0,1),(0,-1,0))((1,0,0),(0,0,-1),(0,1,0))=((1,0,0),(0,1,0),(0,0,1))$;
moltiplicando $A^(-1)$ per le coordiante di $v$ rispetto a $E'$:
$((1,0,0),(0,0,-1),(0,1,0))((3),(1),(-2))=((3),(2),(1))$
otteniamo di nuovo le coordinate di $v$ rispetto alla base canonica, quindi $v$ "in persona".

Domanda: come ottenere la matrice inversa? Normalmente si sa fare (o almeno si spera...), ma in casi come quello dell'esempio -- non poi così rari negli esercizi -- si può usare un semplice trucchetto. Dato che le coordinate di un qualsiasi vettore di $RR^n$ rispetto alla base canonica coincidono con i componenti del vettore, per trovare la matrice di cambiamento da una base qualsiasi alla base canonica basta mettere in colonna gli elementi di quella base. Si può notare, infatti, che la matrice $A^(-1)$ ha per colonne niente altro che gli elementi della base $E'$.

-------------------------
[1] Un'applicazione lineare di uno spazio vettoriale in se stesso viene anche detta operatore (lineare).
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2392 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Matrici simili (primi cenni)

Messaggioda Sergio » 14/09/2009, 22:02

Un'applicazione identità trasforma ciascun vettore in se stesso; se la indichiamo con $Id$, abbiamo $Id(v)=v$.
Una matrice associata ad un'applicazione identità rispetto a basi diverse di partenza e di arrivo, detta matrice di cambiamento di base, è sempre quadrata e invertibile.
L'applicazione identità è solo un caso particolare delle applicazioni di uno spazio in se stesso, dette operatori (lineari).
Ad un operatore $T:V to V$ si possono associare tante matrici quante sono le basi fissate per il dominio ed il codominio. [1]
Se ho un operatore lineare ed una matrice ad esso associata rispetto ad una base, come posso trovare la matrice associata rispetto ad un'altra base?
Consideriamo un caso semplice: ho un'applicazione $T:RR^3 to RR^3$ con base $B$ sia per il dominio che per il codominio e cerco la relativa matrice associata. Conosco però la matrice associata rispetto alla basa canonica, magari perché l'applicazione viene definita in quella che altrove ho chiamato "forma generale".
Ad esempio, se l'applicazione è definita così: $T((x),(y),(z))=((x+y-z),(y+z),(2x))$,
la matrice associata rispetto alla base canonica $E$ si trova subito [2] ed è: $A=((1,1,-1),(0,1,1),(2,0,0))$.
Immaginiamo di voler trovare la matrice associata a $T$ rispetto alla base $B=\{((1),(1),(0))","((-1),(0),(1))","((1),(1),(1))\}$.
In sostanza cerco una matrice che, moltiplicata per le coordinate rispetto a $B$ di un vettore, mi dia le coordinate rispetto a $B$ dell'immagine di quel vettore secondo l'operatore $T$.

Potrei anche usare la matrice $A$, a condizione di "darle in pasto" coordinate rispetto alla base canonica e di convertire poi il risultato (espresso in coordinate rispetto alla base canonica) in coordinate rispetto a $B$.
Avrei quindi bisogno di tre pezzi:
a) una matrice di cambiamento di base da $B$ a $E$ (la base canonica), che indichiamo con $N$;
b) la matrice $A$;
c) una matrice di cambiamento di base da $E$ a $B$, e non sarà altro che l'inversa di $N$, quindi $N^{-1}$.

Ho già $A$ e, per quanto visto a proposito delle matrici di cambiamento di base, trovare $N$ è semplicissimo: è infatti una matrice che ha per colonne gli elementi di $B$. Rimane poi da trovarne l'inversa, e si può fare in due modi:
a) calcolo l'inversa;
b) costruisco una matrice che abbia per colonne le coordinate rispetto a $B$ degli elementi di $E$.
Arrivo comunque a:
$N=((1,-1,1),(1,0,1),(0,1,1))," "N^(-1)=((-1,2,-1),(-1,1,0),(1,-1,1))$
Proviamo.

Ho il vettore $v=(2,6,3)$, che l'operatore $T$ trasforma in $w=(5,9,4)$. Per ottenere $w$ si può applicare la definizione di $T$, ma si può anche usare la matrice $A$; essendo $v$ uguale al vettore delle sue coordinate rispetto alla base canonica:
$w=T(v)=Av=((1,1,-1),(0,1,1),(2,0,0))((2),(6),(3))=((5),(9),(4))$
Voglio ora partire dalle coordinate di $v$ rispetto alla base $B$, $x=(7,4,-1)$, per ottenere le coordinate di $T(v)$ sempre rispetto a $B$. Eseguo tre passaggi:
1) converto $x$ in $v$ usando la matrice $N$: $v=Nx=((1,-1,1),(1,0,1),(0,1,1))((7),(4),(-1))=((2),(6),(3))$;
2) eseguo $Av$ come sopra per ottenere l'immagine di $v$, $w=(5,9,4)$;
3) converto $w$ nel vettore $y$ delle sue coordinate rispetto a $B$ usando la matrice $N^(-1)$:
$y=N^(-1)w=((-1,2,-1),(-1,1,0),(1,-1,1))((5),(9),(4))=((9),(4),(0))$
L'aspetto interessante è che posso "mettere in fila" i tre passaggi risalendo dal terzo al primo:

$y=N^(-1)w=N^(-1)Av=N^(-1)ANx$

Ci vuol molto a vedere che $N^(-1)AN$ non è altro che la matrice associata a $T$ rispetto alla base $B$?
Verifichiamo: $N^(-1)AN=((-1,2,-1),(-1,1,0),(1,-1,1))[((1,1,-1),(0,1,1),(2,0,0))((1,-1,1),(1,0,1),(0,1,1))]=((-2,6,1),(-1,3,1),(3,-5,1))=M$
Se eseguiamo il prodotto $Mx$ otteniamo $y$. Provare per credere...

Due matrici $A$ e $M$ legate dalla relazione $M=N^(-1)AN$, oppure - che è lo stesso - $A=NMN^(-1)$, vengono dette matrici simili. Si tratta di un argomento molto più ampio di quanto può sembrare da queste note preliminari, ma possiamo già notare che matrici simili rappresentano uno stesso operatore lineare rispetto a basi diverse.

EDIT: Corretta svista segnalata da ham_burst, che ringrazio.

------------------------------------
[1] Si intende che dominio e codominio hanno la stessa base; in generale si usa così quando si lavora su operatori lineari. Ovvia eccezione proprio l'applicazione identità: se le basi fossero uguali, la matrice associata sarebbe, banalmente, la matrice identità.
[2] Chi non ricordasse perché potrebbe guardare qui.
Ultima modifica di Sergio il 06/09/2011, 22:25, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2401 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Autovalori/vettori/spazi: le definizioni ed il loro senso

Messaggioda Sergio » 15/09/2009, 10:37

Le definizioni sono semplici. Un po' meno semplice è capirne il senso.

Autovalori, autovettori, autospazi: dato un operatore lineare $T:V to V$, un vettore non nullo $v$ di $V$ viene detto autovettore per $T$ se esiste uno scalare $lambda$ tale che:
$T(v)=lambda v$
$lambda$ viene detto
autovalore relativo a $v$. Si dice inoltre autospazio relativo a $lambda$ il sottospazio;
$V_(lambda)=\{v in V" : "T(v)=lambda v\}$


Prima osservazione banale: un vettore nullo non è autovettore per il semplice motivo che si ha sempre $T(0_V)=lambda 0_V=0_V$.

Per cercare comunque di capire il senso delle definizioni, prendiamo lo spazio vettoriale $RR^3$, lo rappresentiamo come il normale spazio tridimensionale (quello con ascissa, ordinata e quota) e immaginiamo un paio di facili operatori.

Esempio 1. Sia $F(x,y,z)=(x,y,2z)$. Prendiamo il vettore $v=(0,0,90)$ e proviamo:
$F(0,0,90)=(0,0,180)=2(0,0,90)$
Chiaramente $v$ è un autovettore e $2$ è il relativo autovalore. Proviamo ora con $w=(0,0,85)$:
$F(0,0,85)=(0,0,170)=2(0,0,85)$
Anche $w$ è un autovettore. Può stupire? Non molto: $F$ lascia invariate ascissa e ordinata e raddoppia la quota, quindi qualsiasi vettore che abbia i primi due componenti nulli verrà raddoppiato. Questo vuol dire che, una volta trovato un autovettore, se ne sono trovati infiniti (tutti quelli con i primi due componenti nulli); non solo: vuol dire che tutti questi infiniti vettori sono tra loro proporzionali - ad esempio, $w=85/90v$ - e quindi formano un sottospazio di dimensione $1$, l'autospazio $V_2$. Ha importanza dire che proprio $v$, o proprio $w$, è un autovettore? Non molta: sia $v$ che $w$ possono essere una base di $V_2$, quindi l'uno vale l'altro. Scegliere un autovettore tra quegli infiniti vettori proporzionali equivale in tutto e per tutto a scegliere una base per uno spazio vettoriale; scegliamo il più semplice, $(0,0,1)$, e non ci pensiamo più.
Proviamo ora ad usare altri vettori.
Se $"Paolo"=(42,42,90)$, allora $F("Paolo")=(42,42,180)$.
Se $"Maria"=(40,40,85)$, allora $F("Maria")=(40,40,170)$.
$F$ è quindi un operatore "crescita" che fa aumentare la statura di Paolo e di Maria, prima ragazzini poi adolescenti, lasciando invariata la loro linea.

Esempio 2. Sia $G(x,y,z)=(2x,2y,z)$. Prendiamo i vettori $v=(42,42,0)$, $w=(40,40,0)$, e proviamo:
$G(42,42,0)=(84,84,0)=2(42,42,0)$
$G(40,40,0)=(80,80,0)=2(40,40,0)$
Chiaramente $v$ e $w$ sono autovettori di autovalore $2$. Possiamo però trovarne anche altri un po' diversi:
$G(42,0,0)=(84,0,0)=2(42,0,0)$
$G(0,40,0)=(0,80,0)=2(0,40,0)$
Dopo l'esempio precedente la cosa non dovrebbe stupire: $v$ e $w$ sono vettori di un sottospazio di dimensione $2$, una cui base semplice è $\{(1,0,0),(0,1,0)\}$.
Proviamo ora ad usare i vettori $"Paolo"=(42,42,180)$ e $"Maria"=(40,40,170)$:
Se $"Paolo"=(42,42,180)$, allora $G("Paolo")=(84,84,180)$.
Se $"Maria"=(40,40,170)$, allora $G("Maria")=(80,80,170)$.
$G$ appare così come un operatore "ingrasso" che rovina la linea di Paolo e di Maria: la statura rimane la stessa (sono già cresciuti), ma larghezza e profondità aumentano al punto che urge una dieta.

Conclusione seria: se trovo autovettori, autovalori ed autospazi relativi ad un operatore lineare $T:V to V$, posso scomporre il suo dominio $V$ in sottospazi che variano indipendentemente da altri. La cosa è talmente utile che ha un nome preciso: scomposizione di uno spazio vettoriale nella somma diretta di sottospazi invarianti. Per sottospazio invariante si intende appunto un sottospazio $W$ di $V$ tale che, applicando $T$ ad un qualsiasi suo elemento, si ottiene ancora un elemento di $W$.

Si dice anche che è possibile la restrizione di $T$ al sottospazio invariante $W$, ottenendo così un operatore $T|_W:W to W$. Ad esempio, si può restringere l'operatore $F$ (quello dell'esempio 1) ai soli vettori del tipo $(0,0,k)$.

In pratica, questo vuol dire che si può capire come funziona un operatore esaminando separatamente la sua azione sui diversi autospazi, uno per volta.

EDIT: Per qualche dollaro in più. Ovvero: aggiunto \$ che mancava. Ringrazio ham_burst per la segnalazione.
Ultima modifica di Sergio il 06/09/2011, 22:32, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2405 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Autovalori e polinomi caratteristici

Messaggioda Sergio » 16/09/2009, 13:37

Primo problema: come trovare gli autovalori relativi agli autovettori di un operatore lineare? Normalmente si sa fare, ma ricapitoliamo brevemente.

Perché un $lambda$ sia un autovalore, deve verificarsi $T(v)=lambda v$, ovvero $T(v)-lambda v=0_V$.
Per poter andare oltre, devo trasformare $lambda v$ in qualcosa di simile ad un'applicazione lineare; basta usare l'applicazione identità a cui, se le basi del dominio e del codominio sono uguali [1], è associata la matrice identità. Infatti $lambda v$ è evidentemente uguale a $lambda Id_V(v)$; ad esempio, se $lambda=2$ e $v=((1),(1),(0))$, $lambda v=((2),(2),(0))$ è uguale a $2((1,0,0),(0,1,0),(0,0,1))((1),(1),(0))$.
Partendo da $T(v)-lambda Id_V(v)=0_V$, "metto in evidenza" $v$ e ottengo: $(T-lambda Id_V)v=0_V$.
Eseguo ora un passaggio che sembra facile e scontato, ma in realtà andrebbe capito bene in tutte le sue implicazioni: sostituisco $T$ con una matrice $n times n$ ad esso associata rispetto ad una base $B$, che indico con $A$, e $Id_V$ con la matrice identità $I_n$, dove $n$ è la dimensione di $V$:
$(A-lambda I_n)x=0_V$
Da notare che al posto di $v$ c'è ora $x$, che è il vettore delle coordinate di $v$ rispetto alla base $B$, perché una matrice - lo ripetiamo - opera sempre e solo su coordinate rispetto ad una base.

A questo punto la strada è tutta in discesa
a) osservo che $(A-lambda I_n)x=0_V$ non è altro che un sistema lineare omogeneo;
b) considero che la soluzione $x=0_V$ non interessa, in quanto sto cercando autovettori e questi, per definizione, non possono essere nulli;
c) ricordo che, affinché un sistema lineare omogeneo abbia soluzioni diverse da quella nulla, il determinante della matrice dei coefficienti deve essere $0$;
d) la matrice dei coefficienti è qui $(A-lambda I_n)$; contiene un'incognita, $lambda$, quindi non posso calcolare direttamente il determinante, ma posso solo esprimerlo in forma algebrica;
e) ottengo così il cosiddetto polinomio caratteristico, un polinomio in $lambda$, e ne cerco le radici, cioè i valori di $lambda$ per cui quel polinomio (quindi il determinante) si annulla.
Gli autovalori che cerco sono appunto le radici del polinomio caratteristico.

Sono solo conti, quindi in genere si sanno fare. C'è solo da dare un consiglio: non è necessario, e nemmeno opportuno, arrivare davvero al polinomio facendo tutti i conti; è spesso meglio fermarsi non appena si trovano fattori "semplici" del polinomio.

Esempio. Sia $A=((0,-1,0),(0,1,0),(1,1,1))$. Allora $(A-lambda I_3)=((-lambda,-1,0),(0,1-lambda,0),(1,1,1-lambda))$.
Scelgo la seconda riga per il calcolo del determinante e svolgo tutti i passaggi:
$"det"(A-lambda I_3)=(1-lambda)|(-lambda,0),(1,1-lambda)|=(1-lambda)[-lambda(1-lambda)]=-lambda(1-lambda)^2=-lambda(1-2lambda+lambda^2)=-lambda+2lambda^2-lambda^3$
Sono stato "bravo", ho ottenuto un "vero" polinomio, ma è di terzo grado.... Per venirne a capo dovrei scomporre il polinomio in fattori, ma se mi fermo prima, se cioè mi fermo a $-lambda(1-lambda)^2$, ho già la scomposizione in fattori. Così si vede subito che il polinomio si annulla per $lambda=0$ e per $lambda=1$.

Ci sarebbero a questo punto diversi aspetti importanti da sottolineare, che si capirebbero meglio proponendo le relative dimostrazioni. Dato che però le dimostrazioni si dimenticano presto... mi limito ad un elenco.

Note importanti

1) Il polinomio caratteristico di una matrice quadrata di ordine $n$ è sempre un polinomio di grado $n$.

2) Trovare le radici di un polinomio $p$ di grado $n$ vuol dire risolvere l'equazione $p=0$. Come ben noto, un'equazione di grado $n$ ha esattamente $n$ soluzioni reali o complesse, ma può ben avere meno di $n$ soluzioni reali. Ad esempio, l'equazione $x^2+1=0$ ha due soluzioni complesse ma nessuna soluzione reale. Se quindi ci si limita alle soluzioni reali, può ben capitare di trovare meno di $n$ soluzioni dell'equazione $p=0$, quindi meno di $n$ radici del polinomio $p$. In linea di principio, quindi, ci sono tanti autovalori quanta è la dimensione del dominio dell'operatore, di $V$, ma se ci si limita a quelli reali se ne possono trovare meno.

3) Nell'esempio abbiamo trovato $2$ soluzioni, $0$ e $1$, per l'equazione di terzo grado $-lambda+2lambda^2-lambda^3=0$, ma in realtà sono tutte. Questo si spiega perché abbiamo scomposto il polinomio in due fattori e trovato quindi le soluzioni delle equazioni $-lambda=0$ e $(1-lambda)^2=0$. Nel primo caso è evidente che c'è un'unica soluzione; quanto al secondo, se si prova a svolgere il quadrato si trova:
$lambda^2-2lambda+1=0$
che si risolve con la formula $(2+-sqrt(4-4))/2$, il cui discriminante è nullo; si dice in questi casi che l'equazione ha due soluzioni coincidenti, oppure anche - ed è questa la terminologia che si adotta quando si lavora sugli autovalori - che la soluzione $1$ ha moltiplicità algebrica $2$; si scrive $m_a(1)=2$.
In generale, una volta scomposto il polinomio caratteristico in fattori, le sue radici hanno molteplicità algebrica pari al loro esponente; ad esempio, se ho il polinomio $lambda(lambda-1)^2(lambda+2)^3(lambda - 5)^4$, le sue radici sono: $0$ con $m_a(0)=1$, $1$ con $m_a(1)=2$, $-2$ con $m_a(-2)=3$, $5$ con $m_a(5)=4$.
Questo era un caso di polinomio con radici tutte reali. In casi come questo, il numero totale delle radici trovate è uguale al suo grado, quindi all'ordine della matrice, ed è anche uguale alla somma delle molteplicità algebriche: $m_a(0)+m_a(1)+m_a(-2)+m_a(5)=1+2+3+4=10$.
Se il polinomio fosse stato: $lambda(lambda^2+1)^2(lambda+2)^3(lambda - 5)^4$, il secondo fattore non avrebbe avuto radici reali e la somma delle molteplicità algebriche delle radici reali, $8$, sarebbe stata minore dell'ordine della matrice (quindi minore della dimensione dello spazio $V$).

4) La traccia di una matrice $A$, cioè la somma degli elementi della sua diagonale principale, è uguale alla somma dei suoi autovalori, ciascuno considerato con la sua molteplicità algebrica. Ad esempio, abbiamo visto che gli autovalori della matrice $A$ sono $0$ con $m_a(0)=1$ e $1$ con $m_a(1)=2$, quindi la loro somma, tenendo conto della molteplicità algebrica, è $0+1+1=2$, che è anche la traccia di $A$.

5) Il determinante di una matrice $A$ è uguale al prodotto dei suoi autovalori. Nel nostro caso, il prodotto degli autovalori è $0*1*1=0$, come il determinante di $A$.

E' evidente quanto le ultime due proprietà possano risultare utili per verificare se si sono calcolati correttamente gli autovalori....

Noticina teorica. Vorrei tanto che nella mente di chi legge si affacciasse un dubbio: ma se per trovare gli autovalori di un'operatore devo lavorare sulla matrice ad esso associata rispetto ad una base, chi mi dice che cambiando base non troverei autovalori diversi?
Quanto abbiamo già visto sulle matrici simili consente di sciogliere il dubbio.
Abbiamo visto che due matrici $A$ e $B$ sono simili se si può trovare una matrice invertibile $N$ tale che $B=N^(-1)AN$.
Abbiamo anche visto che matrici simili rappresentano un operatore lineare rispetto a basi diverse.
Basta quindi dimostrare che matrici simili hanno lo stesso polinomio caratteristico, quindi gli stessi autovalori (quindi la stessa traccia, quindi lo stesso determinante), e infatti:
$"det"(B-lambda I_n)="det"(N^{-1}AN-lambda I_n)="det"(N^{-1}AN-N^{-1}(lambda I_n)N)=$
$" "="det"(N^{-1}(A-lambda I_n)N)="det"(N^{-1})"det"(A-lambda I_n)"det"(N)=$
$" "="det"(A-lambda I_n)$
Lo sviluppo sulla prima riga si basa sul fatto che la matrice identità è simile a se stessa: $N^(-1)I_nN=N^(-1)N=I_n$.
Lo sviluppo sulla seconda si basa sul fatto che il determinante del prodotto di due o più matrici è uguale al prodotto dei relativi determinanti.
La conclusione di basa sul fatto che il determinante di una matrice e quello della sua inversa sono l'uno il reciproco dell'altro, quindi $"det"(N^{-1})"det"(N)=1$.
Va ricordato e lo ripeto: matrici simili hanno lo stesso polinomio caratteristico, quindi gli stessi autovalori, quindi la stessa traccia, quindi lo stesso determinante.

EDIT: Aggiunto altro dollaro mancante, ma anche virgolette mancanti (secondo me è colpa di Stan... ;-) ). Ancora grazie a ham_burst.

-----------------------------------
[1] Normalmente si usano sempre basi uguali per il dominio e per il codominio quando si lavora con operatori lineari, cioè con applicazioni del tipo $T:V to V$, in quanto dominio e codominio coincidono.
Ultima modifica di Sergio il 06/09/2011, 22:39, modificato 2 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2422 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Autovettori e autospazi

Messaggioda Sergio » 17/09/2009, 09:02

Se si è capito cosa sono in generale autovalori, autovettori e autospazi, se si è imparato a trovare gli autovalori, individuare autovettori ed autospazi non dovrebbe presentare alcun problema.

Ricordiamo: dato un operatore lineare $T:V to V$, scelta una matrice associata rispetto ad una base $B$, si trovano scalari $lambda$ tali che $T(v)=lambda v$, nonché $Ax=lambda x$, dove $x$ è il vettore delle coordinate di $v$ rispetto a $B$. Può così succedere che $V$ possa essere scomposto in autospazi "indipendenti" (detti sottospazi invarianti), ciascuno dei quali realtivo ad un autovalore. Per autovettori relativi a $lambda$ si intendono gli infiniti vettori del corrispondente autospazio, rappresentati sinteticamente da una base di questo.
In sostanza, si procede così: autovalori -> autospazi -> autovettori, e basta applicare quello che già si sa.

Esempio. Sia $T:RR_2[t] to RR_2[t]$ definita da:
$T(1)=t^2," "T(t)=-1+t+t^2," "T(t^2)=t^2$
con base $B=\{1,t,t^2\}$.
La matrice associata a $T$ rispetto a $B$ si trova subito, in quanto abbiamo le immagini degli elementi della base: $A=((0,-1,0),(0,1,0),(1,1,1))$.
Per trovare gli autovalori esaminiamo il polinomio caratteristico della matrice $(A-lambda I_3)=((-lambda,-1,0),(0,1-lambda,0),(1,1,1-lambda))$ e troviamo, come abbiamo già visto, gli autovalori $lambda_1=0$ con $m_a(0)=1$ e $lambda_2=1$ con $m_a(1)=2$.
A questo punto basta sostituire in $(A-lambda I_3)$ i valori $0$ e $1$ a $lambda$:
a) per $lambda=0$, l'autospazio $V_0$ non è altro che lo spazio delle soluzioni del sistema $(A-0I_3)x=Ax=0$, ovvero:
$V_0=Sol(A,0)=\{k((1),(0),(-1))" : "k in RR\}$;
ricordo peraltro che le matrici operano solo su coordinate e che quindi, lavorando su una matrice, ho ottenuto un vettore di coordinate che devo convertire in un polinomio; una base di $V_0$ è quindi il polinomio $v_1=(1-t^2)$;
b) per $lambda=1$, l'autospazio $V_1$ non è altro che lo spazio delle soluzioni del sistema $(A-1I_3)x=(A-I_3)x=0$, ovvero:
$V_1=Sol(A-I_3,0)=\{h((1),(-1),(0))+k((0),(0),(1))" : "h,k in RR\}$.
convertendo le coordiante in polinomi ottengo $v_(21)=(1-t)$ e $v_(22)=t^2$, ovvero $\{1-t,t^2\}$ come una base di $V_1$.

La dimensione dell'autospazio $V_(lambda_i)$ relativo ad un autovalore $lambda_i$ viene detto molteplicità geometrica dell'autovalore e si indica con $m_g""(lambda_i)$.

Dato che normalmente si sa trovare lo spazio delle soluzioni di un sistema lineare omogeneo, non ci dilunghiamo.
Vorrei piuttosto sottolineare una possibile "stranezza".

Si dimostrano facilmente due importanti teoremi:
1) la molteplicità geometrica di un autovalore è sempre maggiore o uguale a $1$ e minore o uguale alla sua molteplicità algebrica, $1<=m_g""(lambda_i)<=m_a(lambda_i)$; questo vuol dire che, in un caso simile a quello dell'esempio, avremmo potuto trovare un autospazio $V_1$ di dimensione $1$ (che è la dimensione minima) nonostante la molteplicità algebrica dell'autovalore $lambda_2=1$ sia $2$;
2) autovettori relativi ad autovalori distinti sono linearmente indipendenti; in genere si dice: se si hanno $k$ autovalori distinti $lambda_1,lambda_2,...,lambda_k$, i relativi autovalori $v_1,v_2,...,v_k$ sono linearmente indipendenti.

Per quanto ovvio, non sempre si aggiunge che è linearmente indipendente l'insieme di tutti gli autovettori anche se si considerano autovalori non distinti, cioè con molteplicità algebrica maggiore di $1$. Se $lambda_1$ ha molteplicità algebrica e geometrica maggiore di $1$, allora saranno più di uno anche i relativi autovettori; questi saranno tra loro linearmente indipendenti (costituscono una base di un autospazio) e risulteranno linearmente indipendenti anche da autovettori relativi ad altri autovalori. Ad esempio, se il dominio $V$ ha dimensione $5$ e se si trovano $5$ autovalori non tutti distinti come:
$lambda_1,lambda_1,lambda_1,lambda_2,lambda_2" "$ con $m_a(lambda_1)=3, m_a(lambda_2)=2$
se inoltre sia $lambda_1$ che $lambda_2$ hanno molteplicità geometrica $2$, si avranno $4$ autovettori:
$v_(11),v_(12),v_(21),v_(22)$
e questi risulteranno linearmente indipendenti anche se relativi ad autovalori non tutti distinti.

In pratica, questo vuol dire che se la somma delle dimensioni degli autospazi, quindi la somma delle molteplicità geometriche degli autovalori, è uguale alla dimensione del dominio $V$ dell'operatore, l'unione delle basi degli autospazi costituisce una base di $V$ e $V$ può essere quindi scomposto nella somma diretta dei suoi autospazi.
Ultima modifica di Sergio il 20/09/2009, 18:01, modificato 2 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2433 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

Diagonalizzazione di un operatore lineare

Messaggioda Sergio » 20/09/2009, 19:06

Qui se ne vedono di tutti i colori. Agli esami.
L'errore più frequente consiste nel rispondere ad una domanda sulla definizione di operatore diagonalizzabile enunciando il criterio di diagonalizzabilità. Come se alla domanda "cosa vuol dire matrimonio?" si rispondesse "non essere già sposati".
Distinguiamo quindi bene:

Operatore diagonalizzabile: un operatore lineare $T:V to V$ tale che esista una base $N$ di $V$ costituita da autovettori per $T$.

Viene poi fuori che la matrice associata a $T$ rispetto ad una base di autovettori è una matrice diagonale (vedremo subito perché).

Condizioni di diagonalizzabilità: un operatore lineare $T:V to V$ è diagonalizzabile se e solo se:
a) la somma delle molteplicità algebriche dei suoi autovalori è uguale alla dimensione di $V$;
b) per ogni autovalore, molteplicità algebrica e molteplicità geometrica coincidono.

Esamineremo prima le condizioni, poi torneremo sulla definizione.

Da quanto già detto nei messaggi precedenti, dovrebbero risultare chiari i motivi per cui le due condizioni sono entrambe necessarie (e sufficienti).

Cominciamo dalla seconda:
a) gli autovettori, in quanto elementi di autospazi, sono infiniti (trovatone uno, basta moltiplicarlo per un qualsiasi scalare per averne un altro); quando si parla di autovettori in numero finito, si intende riferirsi a quelli che costituiscono possibili basi degli autospazi;
b) l'unione di basi degli autospazi è sempre un insieme linearmente indipendente di vettori e, pertanto, può costituire una base di $V$ a condizione che la somma delle dimensioni degli autospazi, quindi delle molteplicità geometriche degli autovalori, sia uguale alla dimensione di $V$;
c) affinché questo succeda, la somma delle molteplicità geometriche deve essere uguale a quella delle molteplicità algebriche, in quanto:
-- per ciascun autovalore la molteplicità geometrica può essere inferiore o uguale, ma non superiore, alla molteplicità algebrica e, se è inferiore, si ha inesorabilmente $sum_i m_g(lambda_i)<"dim "V$;
-- la somma delle molteplicità algebriche, che altro non è che il grado del polinomio caratteristico, è uguale alla dimensione di $V$... se si tengono in conto anche autovalori complessi.

Quest'ultima considerazione ci riporta alla prima condizione.

Come abbiamo già notato, se ci si limita ad autovalori reali può succedere che se ne trovino meno del grado del polinomio caratteristico. In questo caso la somma delle molteplicità algebriche risulta inferiore alla dimensione di $V$ e quindi la somma delle molteplicità geometriche è comunque insufficiente, anche se si rispetta la seconda condizione.
In altri termini, la prima condizione serve solo se ci si limita ad autovalori reali, è invece automaticamente soddisfatta se si considerano anche eventuali autovalori complessi.

Vediamo ora perché la matrice associata ad un operatore rispetto ad una base di autovettori è diagonale.

Partiamo dal solito operatore $T:V to V$ e fissiamo per $V$ una base $N$ costituita da autovettori.
La matrice associata a $T$ rispetto alla base $N$ deve avere per colonne le coordinate rispetto a $N$ delle immagini degli elementi di $N$.
Indichiamo con $A_i$ la $i$-esima colonna della matrice, con $v_i$ l'$i$-esimo autovettore, con $lambda_i$ il corrispondente autovalore. Si ha: $T(v_i)=lambda_iv_i$
Si deve sostituire $v_i$ con le sue coordinate rispetto a $N$, che sono però semplicemente $(0,...,1,...0)$, con tutti zeri tranne un $1$ all'$i$-esimo posto.
Ad esempio, se $N=\{(1,0,-1),(1,-1,0),(0,0,1)\}$, le coordinate del secondo autovettore rispetto a $N$ sono evidentemente $(0,1,0)$.
Ne segue che la $i$-esima colonna di $A$ sarà:
$A_i=((0),(...),(lambda_i),(...),(0))$
con tutti zeri tranne $lambda_i$ all'$i$-esimo posto.

Esempio. Torniamo all'esempio già visto, con un operatore $T:RR_2[t] to RR_2[t]$ definito da:
$T(1)=t^2, T(t)=-1+t+t^2, T(t^2)=t^2$
La matrice associata a $T$ rispetto alla base $B=\{1,t,t^2\}$ è: $A=((0,-1,0),(0,1,0),(1,1,1))$.
Il suo polinomio caratteristico, cioè il determinante della matrice $(A-lambda I_3)$, è: $-lambda(1-lambda)^2$.
Le sue radici sono gli autovalori: $lambda_1=0$ con $m_a(0)=1$ e $lambda_2=1$ con $m_a(1)=2$.
Prendo nota: la somma delle molteplicità algebriche è uguale a $3$, che è anche la dimensione di $RR_2[t]$.
Gli autospazi sono: $V_0$, una cui base è $\{1-t^2\}$, e $V_1$, una cui base è $\{1-t,t^2\}$.
La somma delle molteplicità geometriche, cioè delle dimensioni degli autospazi, è uguale alla somma delle molteplicità algebriche, quindi alla dimensione di $RR_2[t]$.
Posso quindi dire che $N=\{1-t^2, 1-t,t^2\}$ è una base di autovettori per $T$ dello spazio vettoriale.
A questo punto "diagonalizzo" $T$, cioè trovo una matrice diagonale ad esso associata rispetto alla base $N$; per quanto appena visto, questa sarà una matrice diagonale con gli autovalori sulla diagonale principale:
$L=((0,0,0),(0,1,0),(0,0,1))$
Si verifica facilmente che $A$ e $L$ sono simili, cioè che:
$A=NLN^(-1)" "$ e $" "L=N^(-1)AN$

Possiamo anche verificare che, in quanto simili, le due matrici rappresentano l'operatore $T$ rispetto a due basi diverse, $A$ rispetto a $B$, $L$ rispetto a $N$; ad esempio, prendendo $p=1+t+t^2$:
a) $T(p)=-1+t+3t^2$;
b) con $A*"Coord"_B(p)=((0,-1,0),(0,1,0),(1,1,1))((1),(1),(1))=((-1),(1),(3))$ ottengo le coordinate rispetto a $B$ di $-1+t+3t^2$;
c) le coordinate rispetto a $N$ di $p$ sono $(2,-1,3)$ e con: $L*"Coord"_N(p)=((0,0,0),(0,1,0),(0,0,1))((2),(-1),(3))=((0),(-1),(3))$ ottengo le coordinate rispetto a $N$ di $-1+t+3t^2$, infatti:
$0(1-t^2)-1(1-t)+3(t^2)=-1+t+3t^2$.

Nota. Trovati gli autospazi, ho scomposto $RR_2[t]$ nella somma diretta di due sottospazi che seguono regole diverse (i sottospazi invarianti cui avevamo fatto cenno). In particolare:
a) il sottospazio costituito dai multipli del polinomio $1-t^2$, essendo $0$ il relativo autovalore, non è altro che il nucleo dell'applicazione; infatti:
$T(k(1-t^2))=kT(1-t^2)=k[T(1)-T(t^2)]=k[t^2-t^2]=0$
b) gli elementi del sottospazio costituito dalle combinazioni lineari dei polinomi $1-t$ e $t^2$ rimangono immutati in quanto il relativo autovalore vale $1$; infatti, indicando la generica combinazione con $h(1-t)-kt^2$:
$T(h-ht-kt^2)=ht^2-h(-1+t+t^2)-kt^2=ht^2+h-ht-ht^2-kt^2=h-ht-kt^2$
Ultima modifica di Sergio il 01/06/2010, 16:44, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2474 di 6221
Iscritto il: 26/04/2004, 10:56
Località: Roma

PrecedenteProssimo

Torna a Geometria e algebra lineare

Chi c’è in linea

Visitano il forum: Elisa_T e 20 ospiti