Algebra lineare for dummies

Messaggioda Sergio » 09/09/2009, 13:43

Moderatore: Steven

Diversi post in questo topic sono stati cancellati o spostati, a seguito di uno scambio di opinioni tra moderatori.
Si trattava in gran parte di post non strettamente matematici, che "diluivano" molto l'essenza del topic, ovvero uno spazio di riferimento per chi si trova alle prime armi con l'algebra lineare.

E' giusto ricordare che alcuni di questi post segnalavano preziosi suggerimenti (come Sergio specifica in questo post) o sviste nella scrittura, e molti altri ancora erano un ringraziamento per il notevole contributo che Sergio ha volontariamente messo a disposizione dei lettori del forum e per la qualità dell'esposizione
E' superfluo ma piacevole, da parte di noi dello staff, rinnovare i complimenti e la gratitudine a Sergio per la partecipazione.
Buona lettura!

Sono veramente sconfortato. Leggendo certi topic mi stupisce vedere come tanti che pongono domande abbiano idee maledettamente confuse. Credo che questo dipenda da vari fattori [1] e vorrei provare a proporre spunti che chiarissero concetti che sembrano nebulosi a tanti.

Inutile dire sia che mi ispiro al bellissimo lavoro fatto da Camillo sulla funzione integrale, sia che non penso proprio di poter produrre qualcosa di paragonabile. Come e più di lui, quindi, chiedo il contributo (soprattutto correzioni) degli amici del forum.

Vista la finalità (for dummies), mi limiterò a spazi vettoriali reali finitamente generati.

Proviamo....

Indice
1. Spazi vettoriali
$" "$1.1. Spazi vettoriali
$" "$1.2. Sottospazi
$" "$1.3. Indipendenza lineare e basi
$" "$1.4. Basi e coordinate
$" "$1.5. Somma e intersezione di sottospazi
2. Applicazioni lineari e matrici associate
$" "$2.1. Applicazioni lineari
$" "$2.2. Nucleo e immagine di un'applicazione lineare (1)
$" "$2.3. Matrici associate ad applicazioni lineari
$" "$$" "$$" "$2.3.1. Esempi di matrici associate (1)
$" "$$" "$$" "$2.3.2. Esempi di matrici associate (2)
$" "$2.4. Nucleo e immagine di un'applicazione lineare (2)
$" "$2.5. Teorema della nullità e del rango
$" "$2.6. Matrici di cambiamento di base
$" "$2.7. Matrici simili (primi cenni)
3. Autovalori, autovettori, autospazi
$" "$3.1. Le definizioni ed il loro senso
$" "$3.2. Autovalori e polinomi caratteristici
$" "$3.3. Autovettori e autospazi
$" "$3.4. Diagonalizzazione di un operatore lineare

NB: Gli argomenti sono ora raccolti in un file pdf scaricabile da qui:
http://web.mclink.it/MC1166/Matematica/ ... ummies.pdf

Ringraziamenti
Non osavo sperarlo, ma critiche e correzioni cominciano ad arrivare davvero!
Inoltre è tanto che mi frulla in testa: non posso non ringraziare i professori Alessandro Silva e Paolo Papi, che mi hanno insegnato quello che so. Due personalità molto diverse, ma due ottimi insegnanti. Ed anche il mitico (per chi ha avuto la fortuna di partecipare alle sue esercitazioni) Mario Marietti, al quale ho rubato un paio di esempi.
Ringrazio anche franced. Le sue risposte sono sempre sintetiche, quasi stitiche, ma non perde un colpo e la sua sicurezza nel risolvere esercizi e problemi e quei suoi commenti stringatissimi mi hanno insegnato molto (dopo averci spesso dovuto riflettere per un po'....).
Ovviamente loro sono Matematici, io un pivello. Quindi:
Ringrazio (in ordine cronologico) alvinlee88 e Zcheggia per avermi fatto notare che si deve parlare di somma e intersezione di sottospazi, non genericamente di spazi vettoriali; Fioravante Patrone per aver sottolineato l'importanza di precisare che una base non è semplicemente un insieme di vettori, ma un insieme ordinato di vettori; dannoman1988 per avermi segnalato una frase che, scritta com'era, non aveva molto senso...
E mi sa tanto che l'elenco si allungherà presto.
E infatti ringrazio anche salemgold per avermi segnalato un errorino in un esempio. Avanti il prossimo ;-)
Il prossimo non si è fatto troppo attendere. Anzi sono due: grazie a simo90 e a Zilvius!


----------------------
[1] Sembra strano, ma mi pare che sia difficile trovare un testo di algebra lineare che possa valere come standard per tutti (il Sernesi non è certo facile, il mitico Cailotto ancora meno, Abate non piace a molti ecc.); ogni testo, inoltre, segue una propria impostazione diversa da quella degli altri. Mi sembra poi di capire che in alcuni corsi di laurea si chieda solo una "infarinatura" di algebra lineare e che le inevitabili semplificazioni rendano in realtà ancora più difficile la comprensione dei vari argomenti. E poi c'è la stramaledetta faccenda dei semestri e degli esoneri. A quanto mi dice un'amica francese, in Francia "semestre" vuol dire: cinque mesi di lezioni e un mese per gli esami; da noi vuol dire tre mesi di lezioni: troppo poco! Anche perché gli esoneri costringono a dedicarsi alla manualità dei calcoli, trascurando la comprensione della teoria che c'è dietro.
Ultima modifica di Sergio il 18/10/2011, 19:54, modificato 29 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2348 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Spazi vettoriali

Messaggioda Sergio » 09/09/2009, 13:44

Qualsiasi testo propone una definizione di spazio vettoriale, più o meno articolata. Vorrei proporne una semplice.

Spazio vettoriale: un insieme di elementi, detti vettori, che possono essere sommati tra loro e moltiplicati per uno scalare in modo tale che la somma di due vettori o la moltiplicazione di un vettore per uno scalare siano ancora elementi dell'insieme.

Per vettore si intende un'entità composta: una $n$-upla di numeri, una matrice $m\times n$ (quindi $m\times n$ numeri), un polinomio (una somma di monomi), ma anche funzioni o altro. Anche singoli numeri possono essere vettori, ma si tratta solo di un caso particolare. I vettori si chiamano così per motivi storici, ma viene detto vettore anche l'elemento di uno spazio di polinomi o di matrici.

Per scalare, al contrario, si intende un singolo numero, generalmente reale o complesso. Nell'algebra lineare per dummies gli scalari sono solo numeri reali.

Somma. Dire che i vettori possono essere sommati vuol dire che valgono le normali proprietà della somma:
- proprietà associativa: $u+(v+w)=(u+v)+w$;
- proprietà commutativa: $u+v=v+u$;
- esistenza dello zero, detto vettore nullo: $u+0=0+u=u$;
- esistenza degli opposti: $u+(-u)=0$.
Da notare che lo zero è necessario perché si possa sottrarre oltre che sommare. La sottrazione è infatti definita come addizione dell'opposto: $u-w=u+(-w)$, dove $-w$ è quel numero tale che $w+(-w)=0$. Quindi non può esserci uno spazio vettoriale senza un vettore nullo.

Da notare anche che il vettore nullo raramente è un numero (può essere una matrice nulla, ad esempio), quindi si indica spesso con un pedice che specifica a quale spazio appartiene. Ad esempio, se $V$ è uno spazio vettoriale di matrici e $W$ uno di polinomi, la matrice nulla si indica con $0_V$, il polinomio nullo con $0_W$.

Moltiplicazione per uno scalare. Dato uno scalare $k$, per indicare il prodotto tra $k$ ed un vettore $v$ si scrive sempre lo scalare a sinistra: $kv$. Ciò premesso, valgono anche qui semplici proprietà analoghe a quelle dell'aritmetica:
- proprietà associativa: $h(kv)=(hk)v$;
- esistenza dell'unità: $1v=v$;
- proprietà distributiva rispetto alla somma di scalari: $(h+k)v=hv+kv$;
- proprietà distributiva rispetto alla somma di vettori: $k(u+v)=ku+kv$.

Tutto molto intuitivo. La cosa importante da ricordare è che non può esistere uno spazio vettoriale senza un vettore nullo.
Ultima modifica di Sergio il 15/09/2009, 16:33, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2349 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Sottospazi vettoriali

Messaggioda Sergio » 09/09/2009, 13:47

Sottospazio (vettoriale): un sottoinsieme di uno spazio vettoriale che conserva le stesse operazioni.

Uno spazio vettoriale, ripetiamolo, è un insieme di elementi che possono essere sommati tra loro e moltiplicato per uno scalare in modo tale che la somma di due vettori o la moltiplicazione di un vettore per uno scalare siano ancora elementi dell'insieme.

Un sottospazio vettoriale non è altro che un sottoinsieme di uno spazio che rispetti la stessa condizione; ad esempio, un sottoinsieme $W$ di uno spazio vettoriale $V$ tale che, presi due suoi elementi, la loro somma non appartiene più a $W$ non è uno spazio vettoriale.

Problema: Determinare se un dato sottoinsieme $W$ di uno spazio vettoriale $V$ è un sottospazio, cioè se è a sua volta uno spazio vettoriale.

Soluzione: Per prima cosa si verifica se $W$ contiene il vettore nullo (se non lo contiene abbiamo finito: non è un sottospazio), poi si cerca di capire se $W$ comprende tutte le somme di suoi elementi e tutti prodotti di suoi elementi per uno scalare.

Esempio 1. L'insieme di tutte le terne di numeri reali è uno spazio vettoriale, che si indica con $RR^3$. Infatti:
a) contiene anche la terna $(0,0,0)$, il vettore nullo;
b) la somma di due terne di numeri reali è ancora una terna di numeri reali, ad esempio:
$(1,2,3)+(e,\pi,\sqrt{2})=(1+e,2+\pi,3+\sqrt{2})$
c) la moltiplicazione di una terna di numeri reali per un qualsiasi scalare (anch'esso un
numero reale) è ancora una terna di numeri reali:
$0.5*(1,2,3)=(0.5,1,1.5)$

Esempio 2. L'insieme $W$ di tutte le terne di numeri reali che abbiano come terzo componente il numero $1$ è un sottoinsieme di $RR^3$, ma non è un sottospazio. Infatti:
a) non contiene il vettore nullo: $(0,0,0)!in W$, perché il terzo componente è diverso da $1$.
Fine.

Esempio 3. L'insieme delle matrici $2 \times 2$ è uno spazio vettoriale. Infatti:
a) contiene il vettore nullo: $((0,0),(0,0))$;
b) la somma di matrici $2 \times 2$ è ancora una matrice $2 \times 2$: $((a,b),(c,d))+((e,f),(g,h))=((a+e,b+f),(c+g,d+h))$;
c) il prodotto di una matrice $2 \times 2$ per uno scalare è ancora una matrice $2\times 2$:
$2((a,b),(c,d))=((2a,2b),(2c,2d))$.

Esempio 4. L'insieme delle matrici $2 \times 2$ con la seconda colonna pari al doppio della prima è un sottoinsieme del precedente ed è a sua volta uno spazio vettoriale. Infatti:
a) contiene il vettore nullo ($2*0=0)$;
b) la somma di due matrici con la seconda colonna pari al doppio della prima è ancora una matrice dello stesso tipo:
$((a,2a),(b,2b))+((c,2c),(d,2d))=((a+c,2a+2c),(b+d,2b+2d))=((a+c,2(a+c)),(b+d,2(b+d)))$;
c) il prodotto di una matrice con la seconda colonna pari al doppio della prima per uno scalare è ancora una matrice dello stesso tipo:
$k((a,2a),(b,2b))=((ka,k2a),(kb,k2b))=((ka,2(ka)),(kb,2(kb)))$.

Esempio 5. L'insieme $W=\{((a+b),((a-b)/(a^2+1)),(a),(b))" : "a,b in RR}$ è un sottoinsieme di $RR^4$, ma non è uno spazio vettoriale. Si vede subito che contiene il vettore nullo (basta prendere $a=b=0$), ma compaiono due operazioni "strane" (un quadrato e una divisione) che non rientrano nella definizione di spazio vettoriale. Invece di procedere come negli esempi precedenti, possiamo provare a cercare una scorciatoia, cioè un controesempio.
Il primo componente di $W$ è la somma del terzo e del quarto, e le somme non spaventano. Nel secondo abbiamo una divisione sospetta per $a^2+1$; proviamo quindi a creare un vettore $v$ sostituendo $a$ con $1$ e lasciando $b=0$ (la cosa più semplice):
$v=((1),(1/2),(1),(0))$
Proviamo ora a sommare $v$ a se stesso, ovvero a moltiplicare $v$ per $2$:
$w=v+v=2v=((2),(1),(2),(0))$
Si vede che $w$ non appartiene allo spazio perché, se il terzo componente è $2$ e il quarto è $0$, il primo deve essere $2+0=2$ (e ci siamo), ma il secondo dovrebbe essere:
$(2-0)/(2^2+1)=2/5$
e non è così. Questo vuol dire che $w$ non appartiene a $W$, cioè che $W$ non è uno spazio vettoriale: dovrebbe contenere la somma di due suoi vettori qualsiasi (anche uguali), nonché il prodotto di qualsiasi suo vettore per un qualsiasi scalare, ma abbiamo trovato un caso in cui ciò non succede.

Osservazione. I primi quattro esempi sono facili, il quinto un po' meno, ma illustra un aspetto importante.
Se si pensa di poter dimostrare che un sottoinsieme $W$ di uno spazio vettoriale $V$ è un sottospazio, allora c'è un solo modo: sviluppare, con passaggi algebrici spesso semplici, i casi generali di somma e di moltiplicazione per uno scalare; si devono cioè usare simboli che possano valere per qualsiasi numero.
Quando invece si cerca di dimostrare il contrario, è sufficiente mostrare un solo caso, usando normali numeri e passaggi aritmetici. Infatti, se una proposizione non vale anche per un solo caso, allora non può valere per la generalità dei casi.
In altri termini:
- se voglio dimostrare che $(a+b)^2=a^2+2ab+b^2$ non posso fare altro che svolgere i calcoli con le lettere, stando solo attento a non incappare in situazioni come la divisione per zero o l'estrazione di radice quadrata di un numero negativo;
- se voglio dimostrare che $(a+b)^2 != 27$, mi basta: $(1+2)^2=9$ e ho finito.
Ultima modifica di Sergio il 13/09/2009, 23:29, modificato 3 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2350 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Indipendenza lineare e basi

Messaggioda Sergio » 09/09/2009, 13:51

Uno spazio vettoriale comprende tutte le somme di suoi elementi e tutti i prodotti di suoi elementi per uno scalare. Quindi, se $u,v,w$ sono suoi elementi, è un suo elemento anche una "combinazione" di somme e prodotti per scalari, come $3u+2v-1/2w$.
In generale, si ha la seguente definizione:

Combinazione lineare: dati $n$ vettori $v_1,v_2,...,v_n$, e dati $n$ scalari $k_1,k_2,...,k_n$, si dice combinazione lineare degli $n$ vettori il vettore:
$\sum_{i=1}^nk_iv_i=k_1v_1+k_2v_2+...+k_nv_n$

Osservazione. La definizione di spazio vettoriale può essere riformulata in termini di combinazioni lineari; un insieme $V$ di vettori è uno spazio vettoriale se e solo se qualsiasi combinazione lineare di un sottoinsieme di vettori appartenenti a $V$ è ancora un vettore appartenente a $V$.

Ne segue:

Vettori generatori. Dati $n$ vettori, l'insieme $V$ di tutti i vettori che siano loro combinazioni lineari è uno spazio vettoriale (comprende, tra l'altro, il vettore nullo: basta che i $k_i$ coefficienti siano tutti nulli). Un tale spazio viene detto generato da quegli $n$ vettori, che a loro volta vengono detti generatori.

Esempio 1. Consideriamo il normale piano cartesiano. Tutti i suoi punti hanno coordinate del tipo $(x,y)$, dove $x$ è l'ascissa e $y$ è l'ordinata. Lo spazio vettoriale $RR^2$ è analogo: dati i suoi vettori $(1,0)$ e $(0,1)$, qualsiasi suo elemento è del tipo $(x,y)$, e questa altro non è che una combinazione lineare di quei due vettori:
$(x,y)=x(1,0)+y(0,1)$
In questo senso i due vettori generano tutto $RR^2$: non esiste un elemento di $RR^2$ che non possa essere espresso come combinazione lineare di quei due.

Si pone ora un problema: dato uno spazio vettoriale, quanti generatori sono necessari?

"Anche infiniti" non è una risposta molto pratica. E' evidente (anche se vedremo presto un motivo preciso) che è molto più interessante trovare il numero minimo di generatori necessari. Per farlo, è necessario introdurre la seguente definizione:

Indipendenza lineare. Dato uno spazio vettoriale $V$ e dati suoi $n$ vettori, questi si dicono linearmente dipendenti se esistono $n$ scalari non tutti nulli tali che:
$k_1v_1+k_2v_2+...+k_nv_n=0_v$
Altrimenti si dicono linearmente indipendenti.

Che vuol dire? Immaginiamo che $k_1$ sia diverso da $0$ e che si abbia:
$k_1v_1+k_2v_2+...+k_nv_n=0_v$
Essendo $k_1 != 0$ posso dividere per $k$ ottenendo:
$v_1=-(k_2)/(k_1)v_2-(k_3)/(k_1)v_3...-(k_n)/(k_1)v_n$
cioè potrei esprimere $v_1$ come combinazione lineare degli altri. In questo senso $v_1$ viene detto linearmente dipendente dagli altri: non aggiunge nulla, è "solo" una combinazione lineare di altri vettori (quindi non serve come generatore: se gli altri generano $v_1$, possono generare tranquillamente qualsiasi altro vettore nella cui generazione $v_1$ intervenga; lo possono sostituire).
Se invece posso ottenere $k_1v_1+k_2v_2+...+k_nv_n=0_v$ solo con scalari tutti nulli, non posso dividere per nessuno e quindi non posso esprimere nessuno dei vettori come combinazione lineare degli altri; in questo senso ciascun vettore è linearmente indipendente dagli altri (che non lo possono sostituire nella generazione di altri vettori; è un generatore necessario).

Casi particolari:
a) un vettore singolo non nullo $v$ è sempre linearmente indipendente, in quanto $kv=0_V$ richiede ovviamente $k=0$;
b) il vettore nullo è invece linearmente dipendente, in quanto $k0_V=0_V$ per qualsiasi $k$;
c) due vettori non nulli sono linearmente dipendenti se e solo se sono proporzionali; se infatti $w=2v$, per avere $k_1v+k_2w=0$ basta prendere $k_1=-2$ e $k_2=1$: $-2v+w=-2v+(2v)=0_V$;
d) due o più vettori di cui almeno uno nullo costituiscono un insieme linearmente dipendente; basta infatti che non sia $0$ il coefficiente di un vettore nullo:
$k_1v_1+k_2v_2+...+k_n0_V=0_V" "=>" "0_V=-(k_1)/(k_n)v_1-(k_2)/(k_n)v_2-...-(k_1)/(k_(n-1))v_(n-1)$

Due problemi:
a) come si fa a capire se alcuni vettori sono linearmente indipendenti? Ci sono vari modi, ma visto che in genere sono tutti in grado di ridurre a gradini o calcolare un determinante passo oltre;
b) dato un insieme di vettori, come si fa a trovare un suo sottoinsieme costituito solo da vettori linearmente indipendenti? Può essere affrontato con le stesse tecniche di sopra; passo oltre.

Quanto visto finora consente, finalmente, di chiarire cosa si intende per base di uno spazio vettoriale e per coordinate di un vettore rispetto ad una data base.

Base: dato uno spazio vettoriale $V$, una sua base è un insieme ordinato di suoi vettori linearmente indipendenti capaci di generare tutto $V$.

Il numero degli elementi di una base di $V$ viene detto dimensione di $V$.

Importante! Si dice sempre una base, mai la base, perché le basi uno spazio vettoriale sono infinite.

Esempio 2. Torniamo a $RR^2$, spazio vettoriale rappresentabile come un normale piano cartesiano. I vettori $(1,0)$ e $(0,1)$ ne costituiscono una base, perché, come visto, qualsiasi vettore $(x,y)$ può essere espresso come loro combinazione lineare. Ad esempio:
$(4,8)=4(1,0)+8(0,1)$
Ma non è certo l'unica base: se prendo i vettori $(2,0)$ e $(0,2)$, avrò:
$(4,8)=2(2,0)+4(0,2)$
Cambiano i coefficienti, ma $(4,8)$ è combinazione lineare anche degli elementi della nuova base. E così via: possono essere basi $(12,0)$ e $(0,-3)$, $(\pi,0)$ e $(0,e)$ ecc. Non solo: se due vettori $v_1,v_2$ costituiscono una base, cambiando il loro ordine si ottiene una base diversa (ricordiamolo: una base è un insieme ordinato di vettori).

Perché mai i vettori che sono elementi di una base devono essere linearmente indipendenti? Per capirlo, si deve introdurre un'altra definizione.

EDIT: Apportate piccole, ma non trascurabili, correzioni grazie a ham_burst e wmatte, che ringrazio.
Ultima modifica di Sergio il 05/01/2012, 00:13, modificato 4 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2351 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Basi e coordinate

Messaggioda Sergio » 09/09/2009, 13:58

Coordinate: Dati uno spazio vettoriale $V$, una sua base $B=\{b_1,b_2,...,b_n\}$ ed un vettore $v$, si dicono coordinate di $v$ i coefficienti che esprimono $v$ come combinazione lineare degli elementi di $B$.

Esempio 1. Nello spazio vettoriale $RR^2$, rispetto alla base $\{(1,0),(0,1)\}$ le coordinate di $(4,8)$ non sono altro che $(4,8)$. Rispetto alla base $\{(2,0),(0,2)\}$, le coordinate sono $(2,4)$. Notare che, mentre il vettore rimane lo stesso, le sue coordinate cambiano se cambia la base, cioè le coordinate di un vettore sono sempre coordinate rispetto ad una base fissata.

Torniamo alla domanda: perché mai i vettori che sono elementi di una base devono essere linearmente indipendenti?

Risposta: perché se così non fosse non sarebbe possibile trovare coordinate univoche per un vettore.

Esempio 2. Proseguiamo sulla linea dell'esempio precedente. Immaginiamo che una base fosse $B=\{(1,0),(0,1),(1,1)\}$; è evidente che ora i tre vettori non sarebbero più linearmente indipendenti (il terzo non è altro che la somma dei primi due). Proviamo a trovare le coordinate del vettore $(4,8)$ rispetto a $B$:
$(4,8)=4(1,0)+8(0,1)+0(1,1)$;
$(4,8)=0(1,0)+4(0,1)+4(1,1)$;
$(4,8)=5(1,0)+9(0,1)-1(1,1)$;
$(4,8)=3(1,0)+7(0,1)+1(1,1)$;
ecc.
Come farei a scegliere?

Morale: non si può capire cosa è una base se non si hanno le idee chiare sulla indipendenza lineare; non si può capire a cosa serve una base se non si hanno le idee chiare sulle coordinate.

Esempio 3. Cambiamo argomento. Una possibile base per lo spazio vettoriale delle matrici $2 \times 2$ è:
$((1,0),(0,0)),((0,1),(0,0)),((0,0),(1,0)),((0,0),(0,1))$
Rispetto ad essa, le coordinate di $((3,2),(1,4))$ sono $(3,2,1,4)$. Facile. Se cambiamo l'ordine degli elementi della base otteniamo una base diversa, e questo ha conseguenze immediate sulle coordinate; se scegliamo come base:
$((0,0),(1,0)),((0,1),(0,0)),((1,0),(0,0)),((0,0),(0,1))$
le coordinate di $((3,2),(1,4))$ sono $(1,2,3,4)$.

Osservazione. Anche quando uno spazio vettoriale è "strano" (cioè normalissimo, ma percepito come strano da chi pensa solo a spazi $RR^n$), le coordinate dei suoi elementi sono $n$-uple di numeri reali, sono cioè vettori di $RR^n$. C'è dietro qualche aspetto teorico affascinante, spesso trascurato dai manuali studiati da coloro che... potrebbero aver bisogno di queste note. Per farla semplice:
a) ad ogni vettore ($n$-upla di numeri, matrice, polinomio ecc.) di uno spazio di dimensione $n$ corrisponde una ed una sola $n$-upla di coordinate, cioè un solo vettore di $RR^n$, e viceversa (ogni punto del piano cartesiano ha una sola ascissa ed una sola ordinata; ad una data ascissa e ad una data ordinata corrisponde uno ed un solo punto);
b) si può quindi pensare ad una funzione "conversione di un vettore nelle sue coordinate" che è ovviamente biiettiva (quindi invertibile); essendo le coordinate vettori di $RR^n$, esiste una funzione biiettiva tra qualsiasi spazio vettoriale di dimensione $n$ e $RR^n$ [1];
c) conseguenza importante: è indifferente operare su un vettore o sul vettore delle sue coordinate. Ad esempio, rispetto alla base $\{(2,0),(0,2)\}$ le coordinate di $(4,8)$ sono $(2,4)$, quelle di $(6,6)$ sono $(3,3)$. Se sommo i vettori ottengo:
$(4,8)+(6,6)=(10,14)$
se sommo le coordinate, ottengo le coordinate della somma dei vettori:
$(2,4)+(3,3)=(5,7)$, e $5(2,0)+7(0,2)=(10,14)$
Analogamente, se moltiplico $(4,8)$ per lo scalare $0.5$ ottengo:
$0.5(4,8)=(2,4)$
se moltiplico le coordinate, ottengo le coordinate dello stesso vettore:
$0.5(2,4)=(1,2)$, e $1(2,0)+2(0,2)=(2,4)$.

Meglio ripetere: è indifferente operare sui vettori di un qualsiasi spazio vettoriale o sui vettori delle loro coordinate; unica accortezza: se si opera sulle coordinate, ci si deve ricordare di convertire le coordinate ottenute in un vettore. $(10,14)$ e $(5,7)$ si somigliano, ma si deve stare attenti a ricordare che il $(5,7)$ ottenuto come sopra è un vettore di coordinate, il vettore delle coordinate di $(10,14)$.
Ne riparleremo.

---------------
[1] Si dice che qualsiasi spazio vettoriale di dimensione $n$ è isomorfo a $RR^n$, nonché, per la proprietà transitiva, che gli spazi vettoriali di uguale dimensione sono isomorfi tra loro.
Ultima modifica di Sergio il 13/12/2009, 18:57, modificato 3 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2352 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Somma e intersezione di sottospazi

Messaggioda Sergio » 09/09/2009, 14:07

Gli spazi vettoriali sono comunque insiemi, quindi ci si può chiedere che succede se proviamo l'unione e l'intersezione di due (o più) spazi vettoriali.
Meglio: dal momento che non avrebbe senso sommare polinomi e matrici, o matrici e funzioni, ci si può chiedere cosa succede se, dato uno spazio vettoriale, proviamo l'unione e l'intersezione di due suoi sottospazi.

Sorpresa: l'intersezione di due sottospazi è ancora uno spazio vettoriale, ma l'unione molto spesso no.
Si tratterebbe di capire perché.

Immaginiamo di avere uno spazio vettoriale $U$ e due suoi sottospazi, $V$ e $W$, e scegliamo $n$ vettori di $V$, $v_1,v_2,...,v_n$. Li scegliamo in modo tale che, se l'intersezione tra $V$ e $W$ non è vuota, quegli $n$ vettori appartengono anche a $W$. Abbiamo visto che $V$ è uno spazio vettoriale se qualsiasi combinazione lineare di vettori appartenenti a $V$ è ancora un vettore appartenente a $V$. Ma questo vale, ovviamente, anche per $W$; anche $W$, quindi, contiene tutte le combinazioni lineari di quei vettori. Ne segue che se $v_1,v_2,...,v_n$ appartengono a $VnnW$, gli appartengono anche tutte le loro combinazioni lineari (perché appartengono sia a $V$ che a $W$), quindi anche $VnnW$ è uno spazio vettoriale.

Ben diverso il caso dell'unione. Abbiamo i soliti due sottospazi e due vettori, $v\in V$ e $w\in W$, scelti in modo che non appartengano a entrambi. Bene: l'unione di $V$ e $W$ contiene ovviamente i due vettori, ma non la loro somma $v+w$, quindi non è uno spazio vettoriale (lo è solo se uno dei due sottospazi è contenuto nell'altro, ad esempio se $V sub W sub U$). Si preferisce quindi un'altra situazione, che evidentemente risolve il problema:

Somma di sottospazi: dati uno spazio vettoriale $U$ e due suoi sottospazi $V$ e $W$, la somma $V+W$ è l'insieme di tutti i vettori del tipo $v+w$.

Somma diretta di sottospazi: la somma di sottospazi la cui intersezione sia vuota, che si indica con $\oplus$ invece che con $+$.

Trovare la somma di due sottospazi e la sua dimensione è facile. Un sottospazio viene spesso definito o mediante un insieme di generatori, e basta vedere quali sono quelli linearmente indipendenti per trovare una base, oppure mediante un sistema di equazioni, e basta risolvere il sistema per trovare una base. Trovate due basi, basta metterle insieme ed escludere eventuali vettori linearmente dipendenti. In genere, esercizi di questo tipo non spaventano nessuno.

Trovare l'intersezione di due sottospazi e la sua dimensione risulta invece spesso più ostico. In linea di massima, il problema si risolve facilmente se i due sottospazi sono definiti mediante sistemi di equazioni: si mettono insieme i due sistemi in un sistemone (i vettori dell'intersezione devono soddisfare le condizioni sia del primo che del secondo sistema) e si trova una base.

Aiuta molto la:

Formula di Grassmann: dato uno spazio vettoriale $U$ e due suoi sottospazi $V$ e $W$, si ha:
$"dim"(V)+"dim"(W)="dim"(V+W)+"dim"(V nn W)$

Esempio: dati i sottospazi di $RR^3$ $V=\{(x,y,z)":"x+y-z=0\}$ e $W=\{(x,y,z)":"x-y=0\}$, si trova che una base di $V$ è $B_V=\{(-1,1,0),(1,0,1)\}$, mentre una base di $W$ è $B_W=\{(1,1,0),(0,0,1)\}$. Questi calcoli in genere si sanno fare. Per trovare una base di $V+W$ basta mettere insieme i quattro vettori delle due basi trovate e vedere quali sono quelli linearmente indipendenti, e anche questo in genere si sa fare. A volte si dimentica, però, come fare per trovare una base di $V nn W$: in realtà basta trovare una base per un sottospazio che rispetti sia la definizione di $V$ che quella di $W$, si tratta cioè di risolvere il sistema:
${(x+y-z=0),(x-y=0) :}$
La formula di Grassmann aiuta poi a capire se si è sbagliato qualcosa.
Ultima modifica di Sergio il 15/09/2009, 11:51, modificato 4 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2353 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Applicazioni lineari

Messaggioda Sergio » 09/09/2009, 14:13

Un'applicazione, in generale, è una "legge" che associa a ciascun elemento di un insieme, detto dominio, uno ed un solo elemento di un altro, detto codominio (e non necessariamente distinto dal primo). Due definizioni:

Immagine di un elemento del dominio: se $f$ è un'applicazione e $x$ è un elemento del dominio, l'elemento del codominio ad esso associato, $f(x)$, viene detto immagine di $x$. Si dice anche che, se $y=f(x)$, $x$ è la controimmagine di $y$ (della sua immagine).

Immagine dell'applicazione: se $D$ è il dominio di $f$, l'insieme di tutte le immagini viene detto immagine di $D$ e si indica con $"Im"(f)$, o anche con $f(D)$.

Notare la differenza: nel primo caso si ha un elemento del codominio che è immagine di un elemento del dominio, nel secondo si ha l'insieme delle immagini che viene detto immagine del dominio.

Si definiscono anche, e spesso, applicazioni di uno spazio vettoriale in un altro. Tra queste, rivestono particolare interesse le applicazioni lineari.

La linearità non è una cosa semplice, non perché sia complicata, ma perché un'applicazione, per essere lineare, deve rispettare due proprietà:

a) additività: un'applicazione si dice additiva se $f(x+y)=f(x)+f(y)$.

b) omogeneità: un'applicazione si dice omogenea se $f(kx)=kf(x)$. [1]

Ecco quindi la definizione di applicazione lineare tra spazi vettoriali:

Applicazione lineare: un'applicazione $T:V to W$ si dice lineare se, comunque scelti due vettori $v_1,v_2$ di $V$ e due scalari $h,k$:
a) l'immagine della somma è la somma delle immagini (additività):
$T(v_1+v_2)=T(v_1)+T(v_2)$;
b) l'immagine del prodotto per uno scalare è il prodotto per uno scalare dell'immagine (omogeneità):
$T(hv_1)=hT(v_1)$.
In generale, quindi:
$T(hv_1+kv_2)=hT(v_1)+kT(v_2)$

Problema: come capire se un'applicazione è lineare?

La risposta è ovvia: verificare che sia additiva e omogenea, e non è difficile. Soprattutto, c'è un criterio maledettamente semplice. Cominciamo comunque con un paio di esempi.

Esempio 1. $T((x),(y))=((x),(y^2))$.
Non è additiva:
$T( ((x_1),(y_1)) + ((x_2),(y_2)) )=T((x_1+x_2),(y_1+y_2))=((x_1+x_2),((y_1+y_2)^2))$
che è diverso da:
$T((x_1),(y_1))+T((x_2),(y_2))=((x_1),(y_1^2))+((x_2),(y_2^2))=((x_1+x_2),(y_1^2+y_2^2))$
per il semplice motivo che $(y_1+y_2)^2 != (y_1^2+y_2^2)$.
Non è nemmeno omogenea:
$kT((x),(y))=k((x),(y^2))=((kx),(ky^2))$ diverso da $T((kx),(ky))=((ky),(k^2y^2))$.
Si vede chiaramente che quell'elevazione al quadrato crea problemi.

Esempio 2. $T((x),(y))=((x),(y+1))$.
Non è additiva:
$T( ((x_1),(y_1)) + ((x_2),(y_2)) )=T((x_1+x_2),(y_1+y_2))=((x_1+x_2),(y_1+y_2+1))$
che è diverso da:
$T((x_1),(y_1))+T((x_2),(y_2))=((x_1),(y_1+1))+((x_2),(y_2+1))=((x_1+x_2),(y_1+y_2+2))$
Possiamo fermarci qui (se non è additiva non è lineare) e notare che questa volta è la presenza di quel $+1$ a creare problemi.

Conclusione: un'applicazione è lineare solo se trasforma in espressioni con termini tutti di primo grado: niente potenze con esponenti diversi da $1$, niente "termini noti". Nel caso di spazi $RR^n$, un'applicazione è lineare solo se è del tipo:
$T((x_1),(x_2),(..),(x_n))=((p_1(x_1,...,x_n)),(p_2(x_1,...,x_n)),(...),(p_n(x_1,...,x_n)))$
dove i $p_i$ sono polinomi nulli oppure omonegei di grado 1.

--------------------
[1] A rigore, questa è l'omogeneità di primo grado.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2354 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Nucleo e immagine di un'applicazione lineare (1)

Messaggioda Sergio » 09/09/2009, 14:19

Come qualsiasi funzione, un'applicazione lineare può essere iniettiva, suriettiva, biiettiva. Ricordiamo che una funzione $f:RR \to RR$ è:
a) iniettiva: se ciascun elemento dell'immagine di $f$ ha una sola controimmagine; ad esempio, $f(x)=x^2$ non è iniettiva, in quanto $f(3)=f(-3)=9$, cioè $9$, essendo immagine sia di $3$ che di $-3$, ha due controimmagini;
b) suriettiva: se l'immagine di $f$ coincide col codominio; ad esempio, $f(x)^2$ non è suriettiva in quanto non assume mai valori negativi (rimane fuori metà del codominio);
c) biiettiva: se è sia iniettiva che suriettiva; questo vuol dire che ciascun elemento del dominio ha una sola immagine nel codominio e che ciascun elemento del codominio ha una sola controimmagine nel codominio (in pratica, si stabilisce una corrispondenza uno-a-uno tra gli elementi del dominio e quelli del codominio); ad esempio, $f(x)=2x$ è iniettiva e suriettiva, quindi biiettiva.

Una funzione biiettiva è anche invertibile. Ad esempio, se $y=f(x)=2x$, $x=f^{-1}(y)=1/2y$.

E' ovviamente importante riuscire a capire se un'applicazione lineare $T:V \to W$ è iniettiva, suriettiva, biiettiva (quindi invertibile) o nessuna delle tre. A questo scopo si introduce il concetto di nucleo.

Nucleo (o kernel) di un'applicazione lineare: è l'insieme dei vettori del dominio la cui immagine è il vettore nullo e si indica con $"Ker"(T)$:
$"Ker"(T)=\{v \in V:T(v)=0_W\}$

Si dimostra che il nucleo di un'applicazione lineare è un sottospazio del dominio e che l'immagine di un'applicazione lineare è un sottospazio del codominio.

Torneremo più avanti sui modi per determinare la dimensione del nucleo e dell'immagine. Per ora notiamo solo che dire che il nucleo ha dimensione $0$ vuol dire che nel nucleo c'è il solo vettore nullo.

A fini pratici, è anche importante ricordare che si dimostra la seguente relazione tra le dimensioni del dominio, del nucleo e dell'immagine:
$"dim" V="dim Ker"(T)+"dim Im"(T)$

Soprattutto, si deve tenere a mente un altro risultato:

Teorema. Un'applicazione lineare $T:V \to W$ è:
-- iniettiva: se e solo se il nucleo ha dimensione $0$;
-- suriettiva: se e solo se $"Im"(T)=W$.


Il secondo punto è scontato, perché si basa sulla definizione di applicazione suriettiva. Il primo è meno intuitivo.

Cominciamo dalla parte facile: se un'applicazione è iniettiva, il nucleo può contenere solo il vettore nullo (quindi ha dimensione $0$) perché il vettore nullo del codominio, come qualsiasi altro, ha una sola controimmagine, e questa non può essere che il vettore nullo del dominio.

Per capire perché se un'applicazione ha nucleo di dimensione $0$ allora è iniettiva, invece, si deve ragionare un po'.

Ricordiamo che, se $T$ è iniettiva, allora ciascun elemento dell'immagine di $T$ ha una sola controimmagine, quindi si può avere $T(v_1)=T(v_2)$ solo se $v_1=v_2$ ($f(x)=2x$ è iniettiva, quindi $f(x_1)=f(x_2)=4$ vuol dire che $x_1=x_2=2$).

Assumiamo ora che il nucleo abbia dimensione $0$, cioè che contenga il solo vettore nullo, e prendiamo due vettori qualsiasi di $V$, $v_1$ e $v_2$, tali che $T(v_1)=T(v_2)$ (se pensiamo che l'applicazone non è iniettiva, dobbiamo poterli trovare). Si ha ovviamente:
$T(v_1)-T(v_2)=0_W$
Ma $T$ è lineare, in patricolare additiva, e questo vuol dire che:
$T(v_1)-T(v_2)=T(v_1-v_2)=0_W$
Se il nucleo ha dimensione $0$, allora deve necessariamente essere:
$v_1-v_2=0_V$, ovvero $v_1=v_2$
Quindi da $T(v_1)=T(v_2)$ segue $v_1=v_2$, e questo vuol dire che l'applicazione è iniettiva.
Ultima modifica di Sergio il 30/05/2010, 15:59, modificato 3 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2355 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Matrici associate ad applicazioni lineari

Messaggioda Sergio » 09/09/2009, 14:27

Tasto dolente. La definizione è relativamente semplice:

Matrice associata ad un'applicazione lineare: data un'applicazione lineare $T:V \to W$, fissate le base $B=\{b_1,b_2,...,b_n\}$ per $V$ e $C=\{c_1,c_2,...,c_m\}$ per $W$ (quindi $V$ ha dimensione $n$ e $W$ ha dimensione $m$) la matrice associata è una matrice che ha $m$ righe e $n$ colonne ed in cui la $j$-esima colonna, $j=1,2,...,n$, è costituita dalle coordinate rispetto a $C$ dell'immagine del $j$-esimo elemento di $B$.

Si nota spesso, tuttavia, che sfugge un elemento fondamentale: le applicazioni operano sui vettori di uno spazio vettoriale, le matrici operano su (vettori di) coordinate rispetto a basi fissate.

Dovrebbe essere evidente (se ho un'applicazione il cui dominio è uno spazio vettoriale di polinomi, come faccio a moltiplicare una matrice per un polinomio?), ma purtroppo molti esercizi riguardano applicazioni $RR^n to RR^m$. Quindi ci si abitua a ragionare solo in termini di vettori e poi, se capitano spazi di matrici o di polinomi... si scrivono messaggi disperati sul forum.

Temo sfugga anche che, potendo essere infinite le basi di uno spazio vettoriale, ad una sola applicazione è possibile associare tante matrici quante sono le due basi che scelgo, quindi infinite matrici.

Infine si nota spesso che, se pure si riesce a imparare a memoria la definizione, se pure si riesce a svolgere qualche esercizio, non si capisce assolutamente perché una matrice associata ad un'applicazione lineare debba essere di quel tipo. E questo certo non aiuta ad evitare pasticci.

Cominciamo da qui.

Ho un'applicazione lineare $T:V \to W$ e voglio trovare una matrice associata. Voglio cioè passare da $T(v)=w$ a $Ax=y$. Sottolineo che $x$ è il vettore delle coordinate di $v$ rispetto alla base di $V$, $y$ è il vettore delle coordinate di $w$ rispetto alla base di $W$, ma su questo torneremo.

Ora: $Ax$ non è altro che una combinazione lineare delle colonne di $A$ i cui coefficienti sono i componenti di $x$. Infatti:
$((a_{11},a_{12}),(a_{21},a_{22}))((x_1),(x_2))=((a_{11}x_1+a_{12}x_2),(a_{21}x_1+a_{22}x_2))=x_1((a_{11}),(a_{21}))+x_2((a_{21}),(a_{22}))$

Chiarito questo, proviamo a sviluppare $T(v)=w$.

Essendo $v$ un vettore di $V$, può essere espresso come combinazione lineare degli elementi della base $B$ di $V$:
$T(v)=T(k_1b_1+k_2b_2+...+k_nb_n)$
Dal momento, però, che $T$ è lineare, posso scrivere:
$T(v)=k_1T(b_1)+k_2T(b_2)+...+k_nT(b_n)$
Siamo arrivati a:
$(T(b_1)" "T(b_2)" "..." "T(b_n))((k_1),(k_2),(...),(k_n))=k_1T(b_1)+k_2T(b_2)+...+k_nT(b_n)$
ci siamo cioè avvicinati a qualcosa (il primo fattore del primo membro) che assomiglia ad una matrice [1].
I vari $T(b_j)$ sono però immagini di vettori, quindi vettori del codominio, e possono quindi essere espressi come combinazioni lineari degli elementi della base $C$ di $W$. Basta sostituirli con i vettori colonna delle loro coordinate rispetto a $C$ e si ottiene la matrice associata (rispetto a $B$ e $C$).

Chi vuole può provare un approfondimento (consigliato). Che vuol dire "basta sostituirli ecc."?
Riscrivo i vari $T(b_j)$ come combinazioni lineari:
$T(b_j)=a_{1j}c_1+a_{2j}c_2+...+a_{mj}c_m$
e riscrivo il secondo membro così:
$(c_1" "c_2" "..." "c_m)((a_{1j}),(a_{2j}),(...),(a_{mj}))=a_{1j}c_1+a_{2j}c_2+...+a_{mj}c_m$
dove il primo fattore del primo membro è un vettore di vettori, quindi una matrice che ha per colonne gli elementi della base $C$.
Tralascio questa matrice e mi rimane il vettore colonna dei coefficienti della combinazione lineare, quindi:
$(T(b_1)" "T(b_2)" "..." T(b_j) "..." "T(b_n))=((a_{11},a_{12},...,a_{1j},...,a_{1n}),(a_{21},a_{22},...,a_{2j},...,a_{2n}),(...,...,...,...,...,...),(a_{m1},a_{m2},...,a_{mj},...,a_{mn}))$
Ecco la nosta matrice!
Ma quel "tralasciare" ha un prezzo: per ottenere davvero l'immagine $w$ di $v$, devo moltiplicare quello che ottengo per la matrice degli elementi di $C$; questo vuol dire che $Ax$ non mi dà un elemento di $W$, ma solo le sue coordinate rispetto alla base $C$!
Per ottenere $w$ devo quindi moltiplicare $Ax=y$ per la matrice dei vettori di $C$ che avevo "tralasciato":
$(c_1" "c_2" "..." "c_m)((y_1),(y_2),(...),(y_m))=y_1c_1+y_2c_2+...+y_mc_m=w$

Seguono un paio di esempi.

EDIT: efettuate correzioni secondo le indicazoni di raffamaiden e di ham_burst, che ringrazio.

----------------------------
[1] In realtà lo è, perché i $T(b_j)$ sono vettori.
Ultima modifica di Sergio il 06/09/2011, 22:19, modificato 4 volte in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2356 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Esempi di matrici associate (1)

Messaggioda Sergio » 09/09/2009, 14:38

Ecco un esempio tanto facile da risultare ingannevole.

Esempio 1. Data l'applicazione $T((x),(y))=((x+y),(x-y))$, trovare la matrice associata rispetto alla base canonica, $\{((1),(0)),((0),(1))\}$. Usare la matrice per trovare l'immagine di $((2),(3))$.

Cerco le immagini degli elementi della base:
$T((1),(0))=((1),(1))$
$T((0),(1))=((1),(-1))$
Metto in colonna ed ho la matrice: $((1,1),(1,-1))$.
Moltiplico ora la matrice per il vettore dato:
$((1,1),(1,-1))((2),(3))=((5),(-1))$.
E' giusto? Sì. Solo che è troppo facile e troppi esercizi di questo tipo mettono strane idee in testa.

Esempio 2. Data l'applicazione $T:S_2^+ \to RR_3[t]$
$T((a,b),(b,c))=a-b+(b-c)t+(b-c)t^2+(a-b)t^3$
un'applicazione dallo spazio delle matrici simmetriche di ordine $2$ nello spazio dei polinomi in una variabile di grado non superiore a $3$, trovare la matrice associata rispetto alle basi:
$B=\{((1,0),(0,0)),((0,1),(1,0)),((0,0),(0,1))\}$
$C=\{1,t,t^2,t^3\}$
Usare quindi la matrice per trovare l'immagine della matrice $((1,5),(5,3))$.

Cerco le immagini degli elementi della base:
$T((1,0),(0,0))=1+t^3$
$T((0,1),(1,0))=-1+t+t^2-t^3$
$T((0,0),(0,1))=-t-t^2$
E che ci faccio? Posso forse usarli per costruire una matrice? Costruisco forse una matrice di tre righe e una colonna i cui elementi siano... polinomi?
Ovviamente no. Devo prima convertire quei polinomi in vettori di coordinate rispetto alla base $C$:
$"Coord"(1+t^3)=((1),(0),(0),(1))," Coord"(-1+t+t^2-t^3)=((-1),(1),(1),(-1))," Coord"(-t-t^2)=((0),(-1),(-1),(0))$
A questo punto costruire la matrice è uno scherzo:
$A=((1,-1,0),(0,1,-1),(0,1,-1),(1,-1,0))$

Ora si tratta di usare la matrice. Posso forse moltiplicarla per la matrice data? Ovviamente no: non posso moltiplicare una matrice $4 \times 3$ per una $2 \times 2$. Posso solo (e devo) moltiplicare la matrice $A$ per il vettore delle coordinate, rispetto alla base $B$, della matrice data:
$"Coord"((1,5),(5,3))=((1),(5),(3))$
$((1,-1,0),(0,1,-1),(0,1,-1),(1,-1,0))((1),(5),(3))=((-4),(2),(2),(-4))$.
Ho forse finito? NO!
Quello che ho ottenuto è un vettore di $RR^4$, non è mica un polinomio!
L'immagine della matrice data deve essere un polinomio, ed è facilissimo individuarlo:
$-4+2t+2t^2-4t^3$
Ma troppe volte si dimentica quest'ultimo passaggio...

Si deve ricordare che spazi come $RR^n$ con base canonica costituiscono un'eccezione: il solo caso in cui un vettore ed il vettore delle sue coordinate coincidono.
Si deve ricordare che, mentre le applicazioni operano su vettori, le matrici associate operano su vettori di coordinate e restituiscono vettori di coordinate.
Si deve ricordare che in generale, escluso il caso di spazi come $RR^n$ con base canonica, si devono convertire in vettori di coordinate le immagini degli elementi della base di partenza e si deve poi convertire il vettore di coordinate ottenuto in un elemento dello spazio di arrivo.
Ultima modifica di Sergio il 10/09/2009, 08:10, modificato 1 volta in totale.
"Se vuoi un anno di prosperità coltiva del riso. Se vuoi dieci anni di prosperità pianta degli alberi. Se vuoi cento anni di prosperità istruisci degli uomini" (proverbio cinese). E invece... viewtopic.php?p=236293#p236293
Avatar utente
Sergio
Cannot live without
Cannot live without
 
Messaggio: 2357 di 6251
Iscritto il: 26/04/2004, 10:56
Località: Roma

Prossimo

Torna a Geometria e algebra lineare

Chi c’è in linea

Visitano il forum: Nessuno e 26 ospiti