Per tutta questa scheda, i simboli $A$, $B$ e $C$ indicheranno matrici qualsiasi, mentre con $\alpha$ e $\beta$ indicheremo degli scalari. Supporremo inoltre che le matrici siano sempre tali da verificare le condizioni necessarie allo svolgimento delle operazioni nelle quali figurano.

Proprietà del prodotto di una matrice per uno scalare

Proprietà 1. Associatività:
\[
(\alpha\beta)A=\alpha(\beta A)
\]
Proprietà 2. Distributività rispetto alla somma di scalari:
\[
(\alpha+\beta)A=\alpha A+\beta A
\]
Proprietà 3. Distributività rispetto alla somma di matrici:
\[
\alpha(A+B)=\alpha A+\alpha B
\]
Osservazione 1: Queste tre proprietà si dicono valere “termine a termine”, nel senso che per il calcolo del termine generico $m_{jk}$ delle matrici da un lato e dall’altro dell’uguale non intervengono altri termini che non quelli di $A$ e $B$ ad esso omologhi, cioè $a_{jk}$ e $b_{jk}$.

Dimostrazione: Grazie all’osservazione 1, le proprietà su elencate sono tutte facilmente dimostrabili, e la loro validità discende dalle relative proprietà valide per i numeri reali. Per dimostrarle faremo vedere che i termini generici di posizione $(j,k)$ dell’una e dell’altra matrice sono uguali. Avremo dunque:
\[
\begin{aligned}
\left[(\alpha\beta)A\right]_{jk} &=(\alpha\beta)a_{jk}=\alpha(\beta a_{jk})=[\alpha(\beta A)]_{jk}\\
[(\alpha+\beta)A]_{jk} &=(\alpha+\beta)a_{jk}=\alpha a_{jk}+\beta a_{jk}=\\
&=\left[\alpha A\right]_{jk}+\left[\beta A\right]_{jk}=\left[\alpha A+\beta A\right]_{jk}\\
\left[\alpha(A+B)\right]_{jk} &=\alpha(a_{jk}+b_{jk})=\alpha a_{jk}+\alpha b_{jk}=\\
&=\left[\alpha A\right]_{jk}+\left[\alpha B\right]_{jk}=\left[\alpha A+\alpha B\right]_{jk}
\end{aligned}
\]
In ciascuna dimostrazione, la seconda uguaglianza deriva dalle note proprietà del prodotto di numeri reali, esattamente dall’associatività nel primo caso e dalla distributività negli altri due.

Proprietà della somma di matrici

Proprietà 4. Commutatività:
\[
A+B=B+A
\]
Proprietà 5. Associatività:
\[
\displaystyle(A+B\displaystyle)+C=A+(B+C)
\]
Dimostrazione: Anche per queste due proprietà vale l’osservazione 1, col che esse sono di semplice dimostrazione. Come prima, ci interesseremo del termine generico di posizione $(j,k)$ di ciascuna matrice, avendo perciò:
\[
\begin{aligned}
\left[A+B\right]_{jk} &=a_{jk}+b_{jk}=b_{jk}+a_{jk}=\left[B+A\right]_{jk}\\
\left[(A+B)+C\right]_{jk} &=\left[A+B\right]_{jk}+c_{jk}=(a_{jk}+b_{jk})+c_{jk}=\\
&=a_{jk}+(b_{jk}+c_{jk})=a_{jk}+\left[B+C\right]_{jk}=\\
&=\left[A+(B+C)\right]_{jk}
\end{aligned}
\]
Nel passaggio centrale delle due dimostrazioni abbiamo adoperato una proprietà già nota della somma di numeri reali: nel primo caso si è trattato della commutatività, mentre nel secondo dell’associatività.

Proprietà del prodotto righe per colonne

Proprietà 6. Associatività:
\[
(A\cdot B)\cdot C=A\cdot(B\cdot C)
\]
Dimostrazione. Consideriamo gli elementi generici delle due matrici in esame:
\[
\begin{aligned}
\left[(A\cdot B)\cdot C\right]_{jk} &=\sum_{i}\left[A\cdot B\right]_{ji}c_{ik}=\\
&=\displaystyle\sum_{i}\left(\sum_{h}a_{jh}b_{hi}\right)c_{ik}\\
\\
\left[A\cdot(B\cdot C)\right]_{jk} &=\displaystyle\sum_{h}a_{jh}\left[B\cdot C\right]_{hk}=\\
&=\displaystyle\sum_{h}a_{jh}\left(\sum_{i}b_{hi}c_{ik}\right)
\end{aligned}
\]
Ciò è vero in virtù della definizione di elemento generico del prodotto righe per colonne di due matrici date. Poiché tutte le somme considerate sono finite e di numeri reali, dalla distributività destra e sinistra del prodotto rispetto alla somma in $\mathbb{R}$ avremo:
\[
\begin{aligned}
\sum_{i}\left(\sum_{h}a_{jh}b_{hi}\right)c_{ik} &=\sum_{i}\left(\sum_{h}a_{jh}b_{hi}c_{ik}\right)=\sum_{h}\left(\sum_{i}a_{jh}b_{hi}c_{ik}\right)\\
&=\sum_{h}a_{jh}\left(\sum_{i}b_{hi}c_{ik}\right)
\end{aligned}
\]
il che prova infine che $[(A\cdot B)\cdot C]_{jk}=[A\cdot(B\cdot C)]_{jk}$, essendo il primo e l’ultimo termine dell’uguaglianza precedente null’altro che i termini generici trovati in precedenza.

Proprietà 7. Distributività a sinistra e a destra rispetto alla somma:
\[
\begin{array}{cc}
A\cdot(B+C)=A\cdot B+A\cdot C, & (A+B)\cdot C=A\cdot C+B\cdot C
\end{array}
\]
Dimostrazione: Faremo vedere solo la prima delle due uguaglianze, in quanto la seconda si prova in maniera del tutto analoga. Come al solito troviamo i termini generici delle due matrici date:
\[
\begin{aligned}
\left[A\cdot (B+C)\right]_{jk}&=\sum_{h}a_{jh}\left[B+C\right]_{hk}=\\
&=\sum_{h}a_{jh}(b_{hk}+c_{hk})\\
\\
\left[A\cdot B+A\cdot C\right]_{jk} &=\left[A\cdot B\right]_{jk}+\left[A\cdot C\right]_{jk}=\\
&=\sum_{h}a_{jh}b_{hk}+\sum_{h}a_{jh}c_{hk}=\\
&=\sum_{h}a_{jh}b_{hk}+a_{jh}c_{hk}
\end{aligned}
\]
L’uguaglianza desiderata si ottiene semplicemente mettendo in evidenza $a_{jh}$ nell’ultimo termine della seconda equazione: si otterrà così l’ultimo termine della prima equazione, il che prova che $[A\cdot(B+C)]_{jk}=[A\cdot B+A\cdot C]_{jk}$, ovvero la tesi.

Esempi

Esempio 1: Sono date le matrici
\[
\begin{array}{ccc}
A=\begin{pmatrix}2&3\\-1&0\end{pmatrix}, & B=\begin{pmatrix}-1&1\\0&1\end{pmatrix}, & C=\begin{pmatrix}3&2\\-2&-1\end{pmatrix}
\end{array}
\] Si verifichi che per esse vale la proprietà 6 di associatività del prodotto righe per colonne.
Per effettuare questa verifica cominciamo col calcolare i seguenti due prodotti:
\[
\begin{aligned}
A\cdot B &=\begin{pmatrix}
\begin{aligned}
&2&3\\
-&1&0\\
\end{aligned}
\end{pmatrix}\cdot\begin{pmatrix}
\begin{aligned}
-&1&1\\
&0&1\\
\end{aligned}
\end{pmatrix}=\begin{pmatrix}
\begin{aligned}
-&2&5\\
&1&-1\\
\end{aligned}
\end{pmatrix}
\\
B\cdot C &=\begin{pmatrix}
\begin{aligned}
-&1&1\\
&0&1\\
\end{aligned}
\end{pmatrix}\cdot\begin{pmatrix}
\begin{aligned}
&3&2\\
-&2&-1\\
\end{aligned}
\end{pmatrix}=\begin{pmatrix}
\begin{aligned}
-&5&-3\\
-&2&-1\\
\end{aligned}
\end{pmatrix}
\end{aligned}
\]
Moltiplicando adesso il primo di essi a destra per $C$ ed il secondo di essi a sinistra per $A$,
\[
\begin{aligned}
(A\cdot B)\cdot C &=\begin{pmatrix}
\begin{aligned}
-&2&5\\
&1&-1\\
\end{aligned}
\end{pmatrix}\cdot\begin{pmatrix}
\begin{aligned}
&3&2\\
-&2&-1\\
\end{aligned}
\end{pmatrix}=\begin{pmatrix}
\begin{aligned}
-&16&-9\\
&5&3\\
\end{aligned}
\end{pmatrix}
\\
A\cdot(B\cdot C) &=\begin{pmatrix}
\begin{aligned}
&2&3\\
-&1&0\\
\end{aligned}
\end{pmatrix}\cdot\begin{pmatrix}
\begin{aligned}
-&5&3\\
-&2&-1\\
\end{aligned}
\end{pmatrix}=\begin{pmatrix}
\begin{aligned}
-&16&-9\\
&5&3\\
\end{aligned}
\end{pmatrix}
\end{aligned}
\]
Poiché i due risultati ottenuti sono uguali, la proprietà desiderata è verificata.

Esempio 2: Si dimostri, attraverso un controesempio, che il prodotto righe per colonne non gode della proprietà commutativa.
Riprendendo le matrici dell’esempio precedente, potremmo far vedere che $A\cdot B\ne B\cdot A$. In effetti, poiché abbiamo già calcolato il primo prodotto, non resta che calcolare $B\cdot A$:
\[
B\cdot A=\begin{pmatrix}
\begin{aligned}
-&1&1\\
&0&1\\
\end{aligned}
\end{pmatrix}\cdot\begin{pmatrix}
\begin{aligned}
&2&3\\
-&1&0\\
\end{aligned}
\end{pmatrix}=\begin{pmatrix}
\begin{aligned}
-&3&-3\\
-&1&0\\
\end{aligned}
\end{pmatrix}
\]
Come si vede, esso è diverso da \(A\cdot B=\begin{pmatrix}-2&5\\1&-1\end{pmatrix}\), col che sappiamo per certo che il prodotto righe per colonne non gode della proprietà commutativa.

Osservazione 2: Ciò che abbiamo dimostrato nell’esempio 2 non esclude che esistano delle matrici per le quali, casualmente, si abbia $A\cdot B=B\cdot A$: il nostro controesempio prova infatti semplicemente che ciò non è vero per tutte le matrici.

Esempio 3: Si dimostri, attraverso un contro esempio, che per il prodotto righe per colonne non vale la legge di annullamento del prodotto.
Ricordiamo che la legge di annullamento del prodotto dice che se il prodotto di due fattori è nullo, allora certamente almeno uno di detti fattori è a sua volta nullo; essa vale ad esempio per i numeri reali. D’altro canto se consideriamo il prodotto
\[
\begin{pmatrix}
\begin{aligned}
&2 & 4\\
-&1 & -2\\
\end{aligned}
\end{pmatrix}
\cdot
\begin{pmatrix}
\begin{aligned}
&0 & -4\\
&0 & 2\\
\end{aligned}
\end{pmatrix}=
\begin{pmatrix}
\begin{aligned}
&0 & 0\\
&0 & 0\\
\end{aligned}
\end{pmatrix}
\]
è facile osservare che benché nessuno dei due fattori sia nullo, il risultato lo è. Dunque la legge di annullamento del prodotto non vale per le matrici.

 

Potrebbero interessarti

 

Altro materiale di supporto

 

Se hai qualche dubbio o bisogno d’aiuto, puoi chiedere nella sezione Geometria e Algebra lineare del Forum di Matematicamente.it

 

Commenti

commenti