Pagina 2 di 2

Re: Proiezione ortogonale di vettore

MessaggioInviato: 15/02/2020, 23:06
da Sergio
ccc ha scritto:Ciao, avrei bisogno di aiuto per risolvere questo esercizio:

"Nello spazio vettoriale $R^3$ dotato del prodotto scalare euclideo usuale si considerino il vettore $v=(1,0,3)$ e, al variare di t, il vettore $w=(1,3,-t)$.
1) per t=2 determinare la proiezione ortogonale di w su <v>.
2) per ogni valore di t determinare la proiezione ortogonale di w sul sottospazio ortogonale a v."

Non ho davvero idea di come fare.
Credo che <v> corrisponda a v (come valori) ma a quel punto come trovo la proiezione ortogonale? È giusto fare $(v•w)/(w•w)$ o in questo modo trovo la proiezione ortogonale di w sul sottospazio ortogonale a v?

Scusatemi, dato che è molto tempo che non calcolo cose simili vorrei usare l'esercizio per un ripasso.

1) Prima nota: credo che "<v>" sia lo spazio generato da $v$, ma calcolare la proiezione di $w$ su $V=<v>$ è lo stesso che calcolarla su $v$.
Per $t=2$ la proiezione è $(-1/2, 0, -3/2)$. Ok.

2) Qui non ho capito lo svolgimento di ccc.
Mi sembra che si debba per prima cosa trovare il sottospazio ortogonale a $v$, diciamo \(V^\perp\), per fare questo basta trovare due vettori indipendenti e ortogonali a $v$, ma, a meno che non mi sfugga qualcosa, non mi pare che $(1,1,1)$ e $(-2,1,1)$ lo siano. Tra l'altro, la proiezione di $w$ su \(V^\perp\) non mi sembra possa essere $(1,3/2,3/2)$, perché dovrebbe risultare ortogonale a $v$ e così non è.
Dato che deve risultare \(\langle (x,y,z), (1,0,3) \rangle = 0\), cioè $x-3z=0$, avrei scelto \(\{(0,1,0),(-3,0,1)\}\) come base del sottospazio, che è anche una base ortogonale.

Si deve poi trovare la proiezione di $w$ su tale sottospazio per ogni valore di $t$.
A me in quanto statistico (anche se un po' arrugginito) piace usare la matrice $P=A(A^TA)^{-1}A^T$, dove $A$ è una matrice avente per colonne i vettori della base trovata per il sottospazio (avevo provato a proporre timidamente il metodo dieci anni fa, ma ho visto qui e qui che anche a Bokonon piace procedere in questo modo). Calcolando $Pw$ si ottiene $(3/10 t + 9/10, 3, -1/10 t - 3/10)$.

Procedendo in modo "classico", quello ricordato da anto_zoolander, si avrebbe: $\pi_{(0,1,0)}(w)=(0,3,0)$, $\pi_{(-3,0,1)}(w)=(t+3)/10 (3,0,-1)$ e sommando si giungerebbe allo stesso risultato.
O no?

Re: Proiezione ortogonale di vettore

MessaggioInviato: 16/02/2020, 01:26
da anto_zoolander
Ciao sergio :-D
Il vettore $(1,3/2,3/2)$ è relativo ad un altro esempio, non rispetto al vettore $v$.
Ovvero la proiezione sul sottospazio $W = <(1,1,1),(1,2,2)>$

Inoltre il procedimento da te esposto è lo stesso metodo usato per dimostrare la formula generale della proiezione, quello che ho descritto sopra.

Re: Proiezione ortogonale di vettore

MessaggioInviato: 16/02/2020, 01:41
da Sergio
anto_zoolander ha scritto:Ciao sergio :-D
Il vettore $(1,3/2,3/2)$ è relativo ad un altro esempio, non rispetto al vettore $v$.
Ovvero la proiezione sul sottospazio $W = <(1,1,1),(1,2,2)>$

E da dove salta fuori questo sottospazio? Va be', mi sono perso qualcosa :-D

anto_zoolander ha scritto:Inoltre il procedimento da te esposto è lo stesso metodo usato per dimostrare la formula generale della proiezione, quello che ho descritto sopra.

Ok, me lo riguardo. Grazie!

Re: Proiezione ortogonale di vettore

MessaggioInviato: 16/02/2020, 01:46
da anto_zoolander
Questo è il sottospazio
ccc ha scritto: Prendiamo ad esempio il vettore v di prima e troviamo la sua proiezione ortogonale sul sottospazio $S=<(1,1,1),(1,2,2)>$


Questo è quello di cui parlavo
anto_zoolander ha scritto:
$v=(v-w) +w$

Richiedendo che $w in W$ e $v-w in W^(_|_) $
Dalla prima condizione $ w=sum_(i=1)^(m)lambda_i w_i$
Dalla seconda risulta che $v-w$ deve essere ortogonale ad ogni elemento della base quindi

$0= <<v-sum_(i=1)^(m)lambda_i w_i|w_j>>= <<v|w_j>>-sum_(i=1)^(m)lambda_i <<w_i|w_j>>=<<v|w_j>>-lambda_j<<w_j|w_j>>$

Quindi per ogni $j=1,...,m$ si ha $lambda_j = (<<v|w_j>>) /norm(w_j) ^2 => w=sum_(i=1)^(m)(<<v|w_i>>) /norm(w_i) ^2 w_i$

Re: Proiezione ortogonale di vettore

MessaggioInviato: 16/02/2020, 11:31
da Sergio
anto_zoolander ha scritto:Questo è il sottospazio
ccc ha scritto: Prendiamo ad esempio il vettore v di prima e troviamo la sua proiezione ortogonale sul sottospazio $S=<(1,1,1),(1,2,2)>$

Ok, non avevo colto che si trattava di un altro esercizio.

anto_zoolander ha scritto:Questo è quello di cui parlavo
$v=(v-w) +w$

Richiedendo che $w in W$ e $v-w in W^(_|_) $
Dalla prima condizione $ w=sum_(i=1)^(m)lambda_i w_i$
Dalla seconda risulta che $v-w$ deve essere ortogonale ad ogni elemento della base quindi

$0= <<v-sum_(i=1)^(m)lambda_i w_i|w_j>>= <<v|w_j>>-sum_(i=1)^(m)lambda_i <<w_i|w_j>>=<<v|w_j>>-lambda_j<<w_j|w_j>>$

Quindi per ogni $j=1,...,m$ si ha $lambda_j = (<<v|w_j>>) /norm(w_j) ^2 => w=sum_(i=1)^(m)(<<v|w_i>>) /norm(w_i) ^2 w_i$

Sì, mi pare di capire che da qui si può arrivare alla matrice di proiezione ortogonale, ma me lo devo riguardare con calma.
Detto fra di noi, ragionando di regressione lineare mi sono sempre limitato a prendere la matrice $A(A^TA)^{-1}A^T$ per buona (verificare che è simmetrica e idempotente è facile), ma non mi ero mai preoccupato di partire da Gram-Schmidt per arrivare alla matrice.