Dato
[math]n > 1[/math]
, sia
[math]\alpha:M_{n}(\mathbb{C}) \\rightarrow M_{n}(\mathbb{C})[/math]
l'applicazione definita come:
[math]\alpha(M)=M^t[/math]
(l'esponente
[math]t[/math]
indica la trasposizione, mentre
[math]M_{n}(\mathbb{C})[/math]
indica lo spazio vettoriale delle matrici quadrate di ordine
[math]n[/math]
a coefficienti complessi).
- È vero che
[math]\alpha[/math]
è lineare? (se no, dire perché e tralasciare le domande successive, se sì dire perché e rispondere anche alle altre domande) - È vero che
[math]\alpha[/math]
è invertibile? Se sì, qual è la sua inversa? Se invece no, descrivere [math]\text{ker}(\alpha)[/math]
e [math]\text{Im}(\alpha)[/math]
. - È vero che
[math]\alpha^2 = I[/math]
? - Determinare gli autovalori di
[math]\alpha[/math]
, con le loro molteplicità , algebricae e geometrica. [math]\alpha[/math]
è diagonalizzabile? - Sia
[math]\beta: M_{n}(\mathbb{C}) \to M_{n}(\mathbb{C})[/math]
definita come segue: [math]\beta(M) = M + M^t[/math]
. [math]\beta[/math]
è lineare? Se no, tralasciare le domande seguenti. - È vero che
[math]\alpha[/math]
e [math]\beta[/math]
hanno gli stessi autovalori? - È vero che
[math]\alpha[/math]
e [math]\beta[/math]
hanno gli stessi autospazi? - È vero che
[math]\alpha - \beta + I = O[/math]
?
Un'applicazione si dice lineare se rispetta le proprietà di additività e omogeneità .
Date due matrici
[math]A, B \in M_{n}(\mathbb{C})[/math]
e dato
[math]\gamma \in \mathbb{C}[/math]
, per ogni
[math]i=1, 2, \ldots, n[/math]
, e per ogni
[math]j = 1, 2, \ldots, n[/math]
risulta
[math](A+B)_{i,j}^t = (A+B)_{j,i} = (A)_{j,i} + (B)_{j,i} = (A)_{i,j}^t +(B)_{i,j}^t[/math]
(1)
[math](\gamma A)_{i,j}^t = (\gamma A)_{j,i} = \gamma (A)_{j,i} = \gamma (A)_{i,j}^t[/math]
(2)
Da (1) si deduce che
[math]\alpha(M_1 + M_2) = (M_1 + M_2)^{t} = (M_1)^{t} + (M_2)^{t} =\alpha(M_1) + \alpha(M_2) \quad \forall M_1, M_2 \in M_{n}(\mathbb{C})[/math]
(additività )
Da (2) si deduce che
[math]\alpha(\lambda M) = (\lambda M)^{t} = \lambda M^{t} = \lambda \alpha(M) \quad \forall M \in M_{n}(\mathbb{C}) \quad \forall \lambda in \mathbb{C}[/math]
(omogeneità )
Quindi
[math]\alpha[/math]
è un'applicazione lineare.
[math]\text{ker}(\alpha)[/math]
è il sottospazio lineare del dominio che ha come immagine il vettore nullo, in questo caso è l'insieme delle matrici
[math]M[/math]
tali che
[math]\alpha(M) = O[/math]
, dove
[math]O \in M_{n}(\mathbb{C})[/math]
indica la matrice nulla.
[math]\alpha(M) = O \implies M^t = O \implies M = O[/math]
Quindi l'applicazione
[math]\alpha[/math]
è iniettiva, visto che il nucleo coincide con lo spazio nullo, ma è anche suriettiva, perché è un endomorfismo, e quindi invertibile. L'inversa di
[math]\alpha(\cdot)[/math]
coincide con
[math]\alpha(\cdot)[/math]
stessa, dato che
[math]\alpha(\alpha(M)) = (M^{t})^t = M[/math]
che è per l'appunto l'identità , di conseguenza
[math]\alpha^2 = I[/math]
, dove
[math]I[/math]
indica l'operatore identità .
Sia
[math]M_s[/math]
una matrice simmetrica, allora
[math]\alpha(M_s) = M_s^{t} = M_s[/math]
quindi le matrici simmetriche sono gli autovettori relativi all'autovalore
[math]1[/math]
. Sia
[math]M_a[/math]
una matrice antisimmetrica, allora
[math]\alpha(M_a) = M_a^{t} = -M_a[/math]
quindi le matrici antisimmetriche sono gli autovettori relativi all'autovalore
[math]-1[/math]
.
Data una matrice quadrata
[math]A[/math]
, si può sempre scrivere:
[math]A = \frac{A+A^{t}}{2} + \frac{A-A^{t}}{2}[/math]
dove il primo addendo è una matrice simmetrica e il secondo addendo è una matrice antisimmetrica. Questo vuol dire che ogni matrice quadrata può essere scritta come la somma di una matrice simmetrica e una matrice antisimmetrica, perciò gli autovettori di
[math]\alpha[/math]
formano una base di
[math]M_n(\mathbb{C})[/math]
, per questo
[math]\alpha[/math]
è diagonalizzabile.
Gli autospazi di
[math]\alpha[/math]
sono due: lo spazio delle matrici antisimmetriche e lo spazio delle matrici simmetriche.
Una matrice antisimmetrica ha valori tutti nulli sulla diagonale principale, mentre i valori sopra la diagonale sono opposti a quelli sotto, per questo, per poter formare una base dello spazio delle matrici antisimmetriche, servono tante matrici quanti sono gli elementi sopra la diagonale, cioè
[math]\frac{n^2-n}{2}[/math]
ovvero da tutti gli elementi si tolgono quelli sulla diagonale e si divide per due. Quindi la dimensione dell'autospazio relativo alle matrici antisimmetriche è
[math]\frac{n^2-n}{2}[/math]
, ma dato che
[math]\alpha[/math]
è diagonalizzabile questa è anche la molteplicità algebrica dell'autovalore
[math]-1[/math]
.
Ragionando analogamente per lo spazio delle matrici simmetriche, per formare una base servono tanti elementi quanto sono quelli sopra la diagonale, più gli
[math]n[/math]
elementi della diagonale, quindi la dimensione dell'autospazio delle matrici simmetriche vale
[math]n+\frac{n^2-n}{2} = \frac{n^2+n}{2}[/math]
e questa è anche la molteplicità algebrica dell'autovalore
[math]1[/math]
, sempre perché
[math]\alpha[/math]
è diagonalizzabile.
Verifichiamo che
[math]\beta[/math]
è un'applicazione lineare:
[math]\beta(M_1 + M_2) = (M_1 + M_2) + (M_1 + M_2)^t = (M_1 + M_1^t) + (M_2 + M_2^t) =[/math]
[math]= \beta(M_1) + \beta(M_2) \quad \forall M_1, M_2 \in M_{n}(\mathbb{C}) [/math]
[math]\beta(\lambda M) = \lambda M + (\lambda M)^t = \lambda(M+M^t) = \lambda \beta(M) \quad \forall M \in M_{n}(\mathbb{C}) \quad \forall \lambda in \mathbb{C}[/math]
Sia
[math]M_s[/math]
una matrice simmetrica, allora risulta:
[math]\beta(M_s) = M_s + M_s^t = M_s + M_s = 2 \cdot M_s[/math]
quindi le matrici simmetriche sono gli autovettori di
[math]\beta[/math]
relativi all'autovalore
[math]2[/math]
, inoltre, sia
[math]M_a[/math]
una matrice antisimmetrica, allora:
[math]\beta(M_a) = M_a + M_a^t = M_a - M_a = O[/math]
dove
[math]O[/math]
è la matrice nulla, quindi le matrici antisimmetriche sono gli autovettori di
[math]\beta[/math]
relativi all'autovalore
[math]0[/math]
.
[math]\alpha[/math]
e
[math]\beta[/math]
hanno gli stessi autovettori, quindi anche gli stessi autospazi, anche se relativi ad autovalori diversi.
Per quanto riguarda l'ultima domanda, si può scrivere:
[math](\alpha - \beta + I)(M) = M^t - (M + M^t) + M = M^t - M - M^t + M = O[/math]
che è l'applicazione nulla, quindi è vero che
[math]\alpha - \beta + I = O[/math]
dove
[math]I[/math]
indica l'identità .
FINE