Admin-sp-17185
(0 punti)
8' di lettura

Dato

[math]n > 1[/math]
, sia
[math]\alpha:M_{n}(\mathbb{C}) \\rightarrow M_{n}(\mathbb{C})[/math]
l'applicazione definita come:
[math]\alpha(M)=M^t[/math]
(l'esponente
[math]t[/math]
indica la trasposizione, mentre
[math]M_{n}(\mathbb{C})[/math]
indica lo spazio vettoriale delle matrici quadrate di ordine
[math]n[/math]
a coefficienti complessi).

  1. È vero che
    [math]\alpha[/math]
    è lineare? (se no, dire perché e tralasciare le domande successive, se sì dire perché e rispondere anche alle altre domande)
  2. È vero che
    [math]\alpha[/math]
    è invertibile? Se sì, qual è la sua inversa? Se invece no, descrivere
    [math]\text{ker}(\alpha)[/math]
    e
    [math]\text{Im}(\alpha)[/math]
    .
  3. È vero che
    [math]\alpha^2 = I[/math]
    ?
  4. Determinare gli autovalori di
    [math]\alpha[/math]
    , con le loro molteplicità , algebricae e geometrica.
  5. [math]\alpha[/math]
    è diagonalizzabile?
  6. Sia
    [math]\beta: M_{n}(\mathbb{C}) \to M_{n}(\mathbb{C})[/math]
    definita come segue:
    [math]\beta(M) = M + M^t[/math]
    .
    [math]\beta[/math]
    è lineare? Se no, tralasciare le domande seguenti.
  7. È vero che
    [math]\alpha[/math]
    e
    [math]\beta[/math]
    hanno gli stessi autovalori?
  8. È vero che
    [math]\alpha[/math]
    e
    [math]\beta[/math]
    hanno gli stessi autospazi?
  9. È vero che
    [math]\alpha - \beta + I = O[/math]
    ?


Un'applicazione si dice lineare se rispetta le proprietà  di additività  e omogeneità .

Date due matrici

[math]A, B \in M_{n}(\mathbb{C})[/math]
e dato
[math]\gamma \in \mathbb{C}[/math]
, per ogni
[math]i=1, 2, \ldots, n[/math]
, e per ogni
[math]j = 1, 2, \ldots, n[/math]
risulta

[math](A+B)_{i,j}^t = (A+B)_{j,i} = (A)_{j,i} + (B)_{j,i} = (A)_{i,j}^t +(B)_{i,j}^t[/math]
(1)

[math](\gamma A)_{i,j}^t = (\gamma A)_{j,i} = \gamma (A)_{j,i} = \gamma (A)_{i,j}^t[/math]
(2)

Da (1) si deduce che

[math]\alpha(M_1 + M_2) = (M_1 + M_2)^{t} = (M_1)^{t} + (M_2)^{t} =\alpha(M_1) + \alpha(M_2) \quad \forall M_1, M_2 \in M_{n}(\mathbb{C})[/math]
(additività )

Da (2) si deduce che

[math]\alpha(\lambda M) = (\lambda M)^{t} = \lambda M^{t} = \lambda \alpha(M) \quad \forall M \in M_{n}(\mathbb{C}) \quad \forall \lambda in \mathbb{C}[/math]
(omogeneità )

Quindi

[math]\alpha[/math]
è un'applicazione lineare.
[math]\text{ker}(\alpha)[/math]
è il sottospazio lineare del dominio che ha come immagine il vettore nullo, in questo caso è l'insieme delle matrici
[math]M[/math]
tali che
[math]\alpha(M) = O[/math]
, dove
[math]O \in M_{n}(\mathbb{C})[/math]
indica la matrice nulla.

[math]\alpha(M) = O \implies M^t = O \implies M = O[/math]

Quindi l'applicazione

[math]\alpha[/math]
è iniettiva, visto che il nucleo coincide con lo spazio nullo, ma è anche suriettiva, perché è un endomorfismo, e quindi invertibile. L'inversa di
[math]\alpha(\cdot)[/math]
coincide con
[math]\alpha(\cdot)[/math]
stessa, dato che

[math]\alpha(\alpha(M)) = (M^{t})^t = M[/math]

che è per l'appunto l'identità , di conseguenza

[math]\alpha^2 = I[/math]
, dove
[math]I[/math]
indica l'operatore identità .

Sia

[math]M_s[/math]
una matrice simmetrica, allora

[math]\alpha(M_s) = M_s^{t} = M_s[/math]

quindi le matrici simmetriche sono gli autovettori relativi all'autovalore

[math]1[/math]
. Sia
[math]M_a[/math]
una matrice antisimmetrica, allora

[math]\alpha(M_a) = M_a^{t} = -M_a[/math]

quindi le matrici antisimmetriche sono gli autovettori relativi all'autovalore

[math]-1[/math]
.

Data una matrice quadrata

[math]A[/math]
, si può sempre scrivere:

[math]A = \frac{A+A^{t}}{2} + \frac{A-A^{t}}{2}[/math]

dove il primo addendo è una matrice simmetrica e il secondo addendo è una matrice antisimmetrica. Questo vuol dire che ogni matrice quadrata può essere scritta come la somma di una matrice simmetrica e una matrice antisimmetrica, perciò gli autovettori di

[math]\alpha[/math]
formano una base di
[math]M_n(\mathbb{C})[/math]
, per questo
[math]\alpha[/math]
è diagonalizzabile.

Gli autospazi di

[math]\alpha[/math]
sono due: lo spazio delle matrici antisimmetriche e lo spazio delle matrici simmetriche.

Una matrice antisimmetrica ha valori tutti nulli sulla diagonale principale, mentre i valori sopra la diagonale sono opposti a quelli sotto, per questo, per poter formare una base dello spazio delle matrici antisimmetriche, servono tante matrici quanti sono gli elementi sopra la diagonale, cioè

[math]\frac{n^2-n}{2}[/math]

ovvero da tutti gli elementi si tolgono quelli sulla diagonale e si divide per due. Quindi la dimensione dell'autospazio relativo alle matrici antisimmetriche è

[math]\frac{n^2-n}{2}[/math]
, ma dato che
[math]\alpha[/math]
è diagonalizzabile questa è anche la molteplicità  algebrica dell'autovalore
[math]-1[/math]
.

Ragionando analogamente per lo spazio delle matrici simmetriche, per formare una base servono tanti elementi quanto sono quelli sopra la diagonale, più gli

[math]n[/math]
elementi della diagonale, quindi la dimensione dell'autospazio delle matrici simmetriche vale

[math]n+\frac{n^2-n}{2} = \frac{n^2+n}{2}[/math]

e questa è anche la molteplicità  algebrica dell'autovalore

[math]1[/math]
, sempre perché
[math]\alpha[/math]
è diagonalizzabile.

Verifichiamo che

[math]\beta[/math]
è un'applicazione lineare:

[math]\beta(M_1 + M_2) = (M_1 + M_2) + (M_1 + M_2)^t = (M_1 + M_1^t) + (M_2 + M_2^t) =[/math]

[math]= \beta(M_1) + \beta(M_2) \quad \forall M_1, M_2 \in M_{n}(\mathbb{C}) [/math]

[math]\beta(\lambda M) = \lambda M + (\lambda M)^t = \lambda(M+M^t) = \lambda \beta(M) \quad \forall M \in M_{n}(\mathbb{C}) \quad \forall \lambda in \mathbb{C}[/math]

Sia

[math]M_s[/math]
una matrice simmetrica, allora risulta:

[math]\beta(M_s) = M_s + M_s^t = M_s + M_s = 2 \cdot M_s[/math]

quindi le matrici simmetriche sono gli autovettori di

[math]\beta[/math]
relativi all'autovalore
[math]2[/math]
, inoltre, sia
[math]M_a[/math]
una matrice antisimmetrica, allora:

[math]\beta(M_a) = M_a + M_a^t = M_a - M_a = O[/math]

dove

[math]O[/math]
è la matrice nulla, quindi le matrici antisimmetriche sono gli autovettori di
[math]\beta[/math]
relativi all'autovalore
[math]0[/math]
.

[math]\alpha[/math]
e
[math]\beta[/math]
hanno gli stessi autovettori, quindi anche gli stessi autospazi, anche se relativi ad autovalori diversi.

Per quanto riguarda l'ultima domanda, si può scrivere:

[math](\alpha - \beta + I)(M) = M^t - (M + M^t) + M = M^t - M - M^t + M = O[/math]

che è l'applicazione nulla, quindi è vero che

[math]\alpha - \beta + I = O[/math]

dove

[math]I[/math]
indica l'identità .

FINE