Definizioni

Definizione 1. Matrice inversa.
Sia $A$ una matrice quadrata di ordine $n$. Si chiama matrice inversa di $A$ e si indica con $A^{-1}$ una matrice quadrata di ordine $n$, se esiste, tale che
\[
\begin{array}{cc}
A \cdot A^{-1}=I, & A^{-1}\cdot A=I
\end{array}
\]
dove $I$ è la matrice identica di ordine $n$.

Definizione 2. Matrice invertibile.
Una matrice quadrata $A$ per la quale esista una matrice inversa è detta invertibile, o non singolare.

Definizione 3. Matrice singolare.
Una matrice quadrata $A$ per la quale non esista una matrice inversa è detta singolare, o non invertibile.

Osservazione 1. Se una matrice $A$ è invertibile, allora la sua inversa $A^{-1}$ è unica. Infatti, se esistessero due matrici $B$ e $C$ entrambe inverse di $A$, potremmo applicare la definizione 1 e l’associatività del prodotto matriciale per provare la seguente uguaglianza
\[
C=I\cdot C=(B\cdot A)\cdot C=B\cdot (A\cdot C)=B\cdot I=B
\]
la quale dimostra che $C=B$, e che quindi esiste solamente un’inversa per la matrice $A$.

Osservazione 2. Se una matrice $A$ è invertibile, allora il suo determinante è diverso da 0 e il determinante della sua inversa, anch’esso non nullo, è il reciproco del determinante di $A$. Infatti se $A$ è invertibile, allora vale
\[
\begin{array}{ccc}
\begin{aligned}
&A\cdot A^{-1}=I\Rightarrow & &|A\cdot A^{-1}|=|I|=1\Rightarrow & &|A|\cdot |A^{-1}|=1\Rightarrow\\
&\Rightarrow |A^{-1}|=\frac{1}{|A|} & & & &\\
\end{aligned}
\end{array}
\]
Il terzo passaggio segue dal secondo per il Teorema di Binet, e prova che i determinanti in gioco sono entrambi non nulli. Il quarto passaggio prova poi l’ultima affermazione fatta.

 

Teorema di Laplace

Sia $A$ una matrice quadrata di ordine $n$ tale che $|A|\ne 0$. Allora $A$ è invertibile, e la sua inversa è la trasposta della matrice $A’$ dei complementi algebrici di $A$, divisa per $|A|$. In formule,
\[
A^{-1}=\frac{A’_{T}}{|A|}=\begin{pmatrix}
\displaystyle\frac{A_{11}}{|A|} & \displaystyle\frac{A_{21}}{|A|} & \cdots & \displaystyle\frac{A_{n1}}{|A|} \\
\displaystyle\frac{A_{12}}{|A|} & \displaystyle\frac{A_{22}}{|A|} & \cdots & \displaystyle\frac{A_{n2}}{|A|} \\
\vdots & \vdots & \ddots & \vdots \\
\displaystyle\frac{A_{1n}}{|A|} & \displaystyle\frac{A_{2n}}{|A|} & \cdots & \displaystyle\frac{A_{nn}}{|A|} \\
\end{pmatrix}
\]
Dimostrazione. Dall’osservazione 1 sappiamo già che, se l’inversa della matrice $A$ esiste, allora essa è unica. Ciò significa che ci basta dimostrare che la matrice $A^{-1}$ su scritta gode delle proprietà di cui alla definizione 1, ovvero che $A\cdot A^{-1}=I$, poiché l’altra proprietà si prova in maniera molto simile. Effettuiamo dunque il prodotto matriciale
\[
B=\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n}\\
a_{21} & a_{22} & \cdots & a_{2n}\\
\vdots & \vdots & \ddots & \vdots\\
a_{n1} & a_{n2} & \cdots & a_{nn}\\
\end{pmatrix}\cdot
\begin{pmatrix}
\displaystyle\frac{A_{11}}{|A|} & \displaystyle\frac{A_{21}}{|A|} & \cdots & \displaystyle\frac{A_{n1}}{|A|} \\
\displaystyle\frac{A_{12}}{|A|} & \displaystyle\frac{A_{22}}{|A|} & \cdots & \displaystyle\frac{A_{n2}}{|A|} \\
\vdots & \vdots & \ddots & \vdots \\
\displaystyle\frac{A_{1n}}{|A|} & \displaystyle\frac{A_{2n}}{|A|} & \cdots & \displaystyle\frac{A_{nn}}{|A|} \\
\end{pmatrix}
\]
Il generico elemento della matrice $B$ di posto $(j,k)$, ovvero $b_{jk}$, si potrà scrivere come
\[
b_{jk}=\displaystyle\sum_{i=1}^{n}a_{ji}\frac{A_{ki}}{|A|}=\frac{1}{|A|}\sum_{i=1}^{n}a_{ji}A_{ki}
\]
Si distinguono adesso due casi. Se $j=k$, ovvero se l’elemento $b_{jk}$ si trova sulla diagonale principale della matrice $B$, allora scriveremo
\[
b_{jj}=\frac{1}{|A|}\sum_{i=1}^{n}a_{ji}A_{ji}=\frac{1}{|A|}|A|=1
\]
in quanto la somma data è, per definizione, il determinante della matrice $A$ sviluppato rispetto alla $j$-esima riga. Qualora invece dovesse risultare $j\ne k$, la somma scritta appare essere lo sviluppo di un determinante, ma i complementi algebrici associati agli elementi della riga $j$-esima sono quelli relativi alla riga $k$-esima. Si tratta cioè, a tutti gli effetti, del determinante della matrice che si ottiene da $A$ sostituendo alla riga $k$-esima una copia della $j$-esima. Tale matrice ha però due righe uguali, il che significa che il suo determinante è nullo. Riassumendo,
\[
b_{jk}=\begin{cases}
1, & \mbox{se}\; j=k\\
0, & \mbox{se}\; j\ne k\\
\end{cases}
\]
ovvero gli elementi della diagonale principale di $B$ sono 1, e tutti gli altri 0: questo significa che $B$ è la matrice identica, col che il teorema è dimostrato.

Osservazione 3. È subito chiara la motivazione per cui deve risultare $|A|\ne 0$. Se così non fosse, infatti, la divisione per il determinante di $A$ necessaria alla definizione della matrice inversa sarebbe impossibile da eseguire.

 

Esempi

Esempio 1. Calcolare l’inversa della matrice
\[
A=\begin{pmatrix}
0 & -1 & 2\\
1 & 0 & -1\\
0 & 1 & 0\\
\end{pmatrix}
\]
Per calcolare l’inversa di $A$ vogliamo applicare il Teorema di Laplace; per far ciò dobbiamo prima accertarci che sia $|A|\ne 0$, altrimenti $A$ non sarà invertibile. Utilizzando la regola di Sarrus o sviluppando il determinante rispetto alla terza riga scopriamo subito che $|A|=2$, e dunque esiste l’inversa di $A$. Calcoliamo adesso i complementi algebrici di tutti i suoi elementi:
\[
\begin{array}{cc}
A_{11}=\begin{vmatrix}
0 & -1\\
1 & 0\\
\end{vmatrix}=1, &
A_{12}=-\begin{vmatrix}
1 & -1\\
0 & 0\\
\end{vmatrix}=0\ldots
\end{array}
\]
Terminata questa operazione, scriviamo la matrice dei complementi algebrici, troviamone la trasposta e dividiamo quanto ottenuto per il determinante di $A$:
\[
\begin{array}{ccc}
A’=\begin{pmatrix}
1 & 0 & 1\\
2 & 0 & 0\\
1 & 2 & 1\\
\end{pmatrix}\Rightarrow &
A’_{T}=\begin{pmatrix}
1 & 2 & 1\\
0 & 0 & 2\\
1 & 0 & 1\\
\end{pmatrix}\Rightarrow\\
A^{-1}=\begin{pmatrix}
\displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2}\\
0 & 0 & 1\\
\displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2}\\
\end{pmatrix} & \;\\
\end{array}
\]
Così abbiamo trovato l’inversa. Verifichiamo quanto calcolato:
\[
\begin{array}{c}
A\cdot A^{-1}=\begin{pmatrix}
0 & -1 & 2\\
1 & 0 & -1\\
0 & 1 & 0\\
\end{pmatrix}\cdot
\begin{pmatrix}
\displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2}\\
0 & 0 & 1\\
\displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2}\\
\end{pmatrix}=\\
=\begin{pmatrix}
1 & 0 & -1+1\\
\displaystyle\frac{1}{2}-\displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2}-\displaystyle\frac{1}{2}\\
0 & 0 & 1\\
\end{pmatrix}=I
\end{array}
\]

 

Potrebbero interessarti

 

Altro materiale di supporto

 

Commenti

commenti