25/04/2011, 14:06
Sergio ha scritto:(omissis)
Tralascio questa matrice e mi rimane il vettore colonna dei coefficienti della combinazione lineare, quindi:
$(T(b_1)" "T(b_2)" "..." T(b_j) "..." "T(b_n))=((a_{11},a_{12},...,a_{1j},...,a_{1m}),(a_{21},a_{22},...,a_{2j},...,a_{2m}),(...,...,...,...,...,...),(a_{m1},a_{m2},...,a_{mj},...,a_{nm}))$
Ecco la nosta matrice!
Ma quel "tralasciare" ha un prezzo
(omissis)
25/07/2011, 17:01
Indipendenza lineare e basi ha scritto:Che vuol dire? Immaginiamo che $k_1$ sia diverso da $0$ e che si abbia:
$k_1v_1+k_2v_2+...+k_nv_n=0_v$
Essendo (errore manca 1 a pedice) $k_1 != 0$[/color] posso dividere per $k$ ottenendo:
$v_1=-(k_2)/(k_1)v_2-(k_3)/(k_1)v_3...-(k_n)/(k_1)v_n$
cioè potrei esprimere $v_1$ come combinazione lineare degli altri. In questo senso $v_1$ viene detto linearmente dipendente dagli altri: non aggiunge nulla, è "solo" una combinazione lineare di altri vettori (quindi non serve come generatore: se gli altri generano $v_1$, possono generare tranquillamente qualsiasi altro vettore nella cui generazione $v_1$ intervenga; lo possono sostituire).
Se invece posso ottenere (mancano puntini) $k_1v_1+k_2v_2+...+k_nv_n=0_v$ solo con scalari tutti nulli, non posso dividere per nessuno e quindi non posso esprimere nessuno dei vettori come combinazione lineare degli altri; in questo senso ciascun vettore è linearmente indipendente dagli altri (che non lo possono sostituire nella generazione di altri vettori; è un generatore necessario).
Nucleo e immagine di un'applicazione lineare (1) ha scritto:Assumiamo ora che il nucleo abbia dimensione 0, cioè che contenga il solo vettore nullo, e prendiamo due vettori qualsiasi di $V$, $v_1$ e $v_2$, tali che $T(v_1)=T(v_2)$ (se pensiamo che l'applicazone non è iniettiva, dobbiamo poterli trovare).
Matrici associate ad applicazioni lineari ha scritto:Ma quel "tralasciare" ha un prezzo: per ottenere davvero l'immagine di $w$, devo moltiplicare quello che ottengo per la matrice degli elementi di $C$; questo vuol dire che $Ax$ non mi dà un elemento di $W$, ma solo le sue coordinate rispetto alla base $C$!.
Nucleo e immagine di un'applicazione lineare (2) ha scritto:Soluzioni:
a) si può ridurre la matrice $A$ per colonne: meglio evitare perché, essendo abituati a ridurre per righe, si rischiano errori tanto banali quanto probabili;
b) si riduce la matrice per righe e poi si possono prendere le colonne di $A$ corrispondenti ai pivot della matrice ridotta; da ricordare che non si possono prendere le colonne della ridotta;
c) si traspone la matrice (facile) e si riduce per righe la trasposta; in questo caso, si possono prendere tranquillamente le righe non nulle della ridotta che, rimesse in colonna, costituiscono le coordinate degli elementi di una base dell'immagine anche se non sono uguali alle colonne di $A$.
Teorema della nullità e del rango ha scritto:1) una volta trovato il rango $r$ della matrice, la dimensione del nucleo dell'applicazione è $n-r$;
2) se una matrice ha rango pieno, cioè rango uguale al numero delle colonne (ancora: se le sue colonne sono linearmente indipendenti), allora ha nullità $0$, quindi l'applicazione è iniettiva;
3) quando dominio e codominio hanno la stessa dimensione, dunque quando la matrice associata è quadrata, se questa ha rango pieno allora è invertibile, quindi è tale anche l'applicazione (esiste l'applicazione inversa). E' infatti anche suriettiva, perché la dimensione dell'immagine è uguale a quella del codominio.
Matrici simili (primi cenni) ha scritto:Consideriamo un caso semplice: ho un'applicazione $T:RR^3 to RR^3$ con base $B$ sia per il dominio che per il codominio e cerco la relativa matrice associata. Conosco però la matrice associata rispetto alla basa canonica, magari perché l'applicazione viene definita in quella che altrove ho chiamato "forma generale".
Ad esempio, se l'applicazione è definita così: $T((x),(y),(z))=((x+y-z),(y+z),(2x))$,
Autovalori/vettori/spazi: le definizioni ed il loro senso ha scritto:Autovalori, autovettori, autospazi: dato un operatore lineare $T:V to V$, un vettore non nullo $v$ di $V$ viene detto autovettore per $T$ se esiste uno scalare $lambda$ tale che:
$T(v)=lambda v$
$lambda$ viene detto autovalore relativo a $v$. Si dice inoltre autospazio relativo a $lambda$ il sottospazio;
$V_(lambda)=\{v in V" : "T(v)=lambda v\}$ (manca un dollaro alla fine)
Autovalori e polinomi caratteristici ha scritto:$" "="det"(A-lambda I_n)$ (manca un dollaro alla fine)
Lo sviluppo sulla prima riga si basa sul fatto che la matrice identità è simile a se stessa: $N^(-1)I_nN=N^(-1)N=I_n$.
Lo sviluppo sulla seconda si basa sul fatto che il determinante del prodotto di due o più matrici è uguale al prodotto dei relativi determinanti.
La conclusione di basa sul fatto che il determinante di una matrice e quello della sua inversa sono l'uno il reciproco dell'altro, quindi $"det"(N^{-1})"det"(N)=1$. (manca un " alla fine di det)
08/09/2011, 15:04
12/09/2011, 13:30
Sergio ha scritto:Questa non l'ho capita. Se pensiamo che l'applicazione non è iniettiva, allora posso trovare due vettori qualsiasi (cioè anche distinti) che abbiano la stessa immagine, altrimenti no.
Per il resto, ho corretto le sviste segnalate da te e da raffamaiden. Grazie!
15/10/2011, 21:36
21/10/2011, 15:56
05/11/2011, 02:04
Sergio ha scritto:Che dire... certi messaggi fanno proprio piacere.
Tanto che ho deciso di ascoltare quelli che chiedevano una versione su un unico file di queste quattro chiacchiere.
Sta quindi per venire alla luce AlgebraLineareForDummies.pdf. Manca poco...
EDIT: Fatto. Il file è qui:
http://web.mclink.it/MC1166/Matematica/ ... ummies.pdf
05/11/2011, 03:50
Sergio ha scritto:Guarda, ho preparato il pdf perché mi era stato chiesto, ma per il resto la "vera" algebra lineare for dummies è quella che si legge nel forum e... "appartiene" al forum.
Vale quindi la regola 3.12: «I contenuti dei messaggi si intendono non protetti da copyright».
04/01/2012, 11:12
Sergio ha scritto:
Importante! Si dice sempre una base, mai la base, perché le basi uno spazio vettoriale sono infinite.
Esempio 2. Torniamo a $RR^2$, spazio vettoriale rappresentabile come un normale piano cartesiano. I vettori $(1,0)$ e $(0,1)$ ne costituiscono una base, perché, come visto, qualsiasi vettore $(x,y)$ può essere espresso come loro combinazione lineare. Ad esempio:
$(4,8)=4(1,0)+8(0,1)$
Ma non è certo l'unica base: se prendo i vettori $(2,0)$ e $(0,2)$, avrò:
$(4,8)=2(2,0)+4(0,1)$
Cambiano i coefficienti, ma $(4,8)$ è combinazione lineare anche degli elementi della nuova base. E così via: possono essere basi $(12,0)$ e $(0,-3)$, $(\pi,0)$ e $(0,e)$ ecc. Non solo: se due vettori $v_1,v_2$ costituiscono una base, cambiando il loro ordine si ottiene una base diversa (ricordiamolo: una base è un insieme ordinato di vettori).
Perché mai i vettori che sono elementi di una base devono essere linearmente indipendenti? Per capirlo, si deve introdurre un'altra definizione.
EDIT: Apportate piccole, ma non trascurabili, correzioni grazie a ham_burst, che ringrazio.
20/02/2012, 12:37
Skuola.net News è una testata giornalistica iscritta al Registro degli Operatori della Comunicazione.
Registrazione: n° 20792 del 23/12/2010.
©2000—
Skuola Network s.r.l. Tutti i diritti riservati. — P.I. 10404470014.
Powered by phpBB © phpBB Group - Privacy policy - Cookie privacy
phpBB Mobile / SEO by Artodia.