cooper ha scritto:devi imporre la condizione $alpha = 0$ come indica il testo dell'esercizio
...ma che cazz...
hai ragione!!!
Ok, provo a ricapitolare.
Per il punto a) vado a studiare il segno della forma quadratica con sylvester:
$ A=[ ( 1 , alpha , 1 ),( alpha , 0 , 0 ),( 1 , 0 , 1 ) ] $
da cui
$ A_(\1)=1>0 $
$ A_(\2)=det| ( 1 , alpha ),( alpha , 0 ) | ->alpha=0 $
quindi la matrice $A$ è indefinita.
Per il punto b), dato il polinomio $lambda^3-2lambda^2=0$, ottengo autovalori $lambda_(\1)=0$ con molteplicità algebrica $m(0)=2$ e $lambda_(\2)=2$ con molteplicità algebrica $m(2)=1$.
Gli autovettori sono, rispettivamente:
$ [ ( 1 , 0 , 1 ),( 0 , 0 , 0 ),( 1 , 0 , 1 ) ] ->det|1|=1->R(A_(\0))=1->dim(S(0))=2-> bar(u)=[ ( 0 ),( l ),( k ) ] =l[ ( 0 ),( 1 ),( 0 ) ] +k[ ( 0 ),( 0 ),( 1 ) ] $
$ [ ( -1 , 0 , 1 ),( 0 , -2 , 0 ),( 1 , 0 , -1 ) ] ->det | ( -1 , 0 ),( 0 , -2 ) | =2->R(A_(\2))=2->dim(S(2))=1-> bar(v)=[ ( h ),( 0 ),( h ) ] =h[ ( 1 ),( 0 ),( 1 ) ] $
Ora devo verificare se sono ortogonali. Se avessi avuto due autovettori "singoli" del tipo $ bar(x)=l[ ( 2 ),( 0 ),( 0 ) ]$ e $ bar(y)=k[ ( 0 ),( 0 ),( 2)]$ avrei fatto $ bar(x)bar(y)=l\cdot k[ ( 2 ),( 0 ),( 0 ) ] [ ( 0 ),( 0 ),( 2 ) ]=l\cdot k[(2\cdot0)+(0\cdot0)+(0\cdot2)]=0 $. Ora invece, avendo $bar(u)=l[ ( 0 ),( 1 ),( 0 ) ]+k[ ( 0 ),( 0 ),( 1 ) ]$, ha senso scrivere
$ bar(u)bar(v)=(l[ ( 0 ),( 1 ),( 0 ) ]+k[ ( 0 ),( 0 ),( 1 ) ] )h[ ( 1 ),( 0 ),( 1 ) ] $
Se si, devo svolgere i singoli prodotti tra autovettori? Perché in tal caso l'ortogonalità non sarebbe verificata...
Se no, come ne dimostro l'ortogonalità?
cooper ha scritto:non è che lo si fa con le costanti numeriche e con i parametri no. l'esercizio qui chiede di trovare "una matrice diagonalizzante ortogonale". ortogonale non è ortonormale (il suffisso normale sta a richiamare il fatto che i vettori oltre ad essere "orto(gonali)" sono anche normalizzati).
Il professore, per operare il cambio di variabili, normalizzava gli autovettori così da potersi costruire una matrice diagonalizzante ortogonale tale per cui la sua inversa era uguale alla sua trasposta (come da definizione di ortonormalità).
Ovvero a dire:
$ P=[ bar(u_(\1)) \ \ bar(v_(\1)) ] $ era la matrice diagonalizzante ortogonale con $bar(u_(\1))$ normalizzazione di $bar(u)$ e $bar(v_(\1))$ normalizzazione di $bar(v)$. Da qui,
$bar(X)^TAbar(X)=bar(X)^TPDP^Tbar(X)$
con $D$ matrice diagonale. Per cui, data per definizione $bar(Y)=P^Tbar(X)$ con $P^T$ matrice trasposta della matrice diagonalizzante ortogonale normalizzata, il cambio di variabili era $bar(Y)^TDbar(Y)=lambda_(\1) {::}text(y)_(\ \ 1)^(2)+lambda_(\2) {::}text(y)_(\ \ 2)^(2)+ ...+lambda_(\n) {::}text(y)_(\ \ n)^(2)$
Siccome qui chiede il cambiamento di variabili suppongo di dover normalizzare no? Il che mi porterebbe a dire che nei casi in cui invece il cambiamento di variabili non è richiesto devo solo trovare la matrice ortogonale, senza normalizzare.