Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 15/11/2019, 16:28

vict85 ha scritto:Ok, si hai ragione: il professore ha usato una notazione un po' discutibile senza motivarla.

D'altra parte, a patto di riordinare i vettori e gli elementi della base in cui sono espressi, è sempre possibile portarsi al caso in cui il minore formato dalle prime \(q\) righe e \(q\) colonne è quello non nullo.


Innanzitutto, grazie per il chiarimento! Certo, quanto scrivi corrisponde anche al mio ulteriore dubbio, perché
- anche se è vero che "per poter concludere che una matrice ha rango $p$ basta conoscere un minore di ordine $p$ non nullo e constatare che sono nulli i minori di ordine $p+1$ che lo contengono (teorema di Kronecker)" - il teorema di Kronecker non era stato ancora fatto.

D'altronde, certamente ci si può sempre riportare - riordinando opportunamente - al caso del minore non nullo costituito dalle prime $q$ colonne e $q$ righe della matrice.

Ma ciò che intendevo dire - e che non sono riuscita a esprimere adeguatamente - è che, se anche si opera la dimostrazione su una matrice "riordinata" e anche se ci "si restringe" nel corso della dimostrazione del teorema (per il "successivo" teorema di Kronecker) a procedere mediante minori di ordine superiore a $q$ unicamente "orlando", il range di validità degli indici $j = 1,2, ..., n; l = 1,2, ..., m$ rimane, comunque, sbagliato perché "indicherebbe" cose, che non sarebbero,comunque, in generale, minori di quella matrice!

Per gli indici non può che valere $q+1≤l≤m$ e $q+1≤j≤n$.

Avrei, gentilmente, soltanto bisogno di una conferma di questo. Non m'interessa assolutamente criticare nessuno, ma, per procedere, ho bisogno - date le ore che dedico allo studio, non essendo particolarmente portata -se riesco davvero a capire qualcosa o se non sarebbe meglio fare altro ... :?

Ancora grazie! :)
Elisa_T
Starting Member
Starting Member
 
Messaggio: 15 di 16
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda vict85 » 15/11/2019, 21:07

Dovresti cercare di focalizzarti più sul significato generale che sull'aspetto particolare. Se capisci il principio generale, puoi sempre provare a scrivere tu la dimostrazione correggendo le semplificazioni del professore.

Provo a scrivere quello che penso intendesse il professore. Cominciamo con qualche considerazione generale.

Siano \(\mathbf{a}_s = (a_{1, s}, \dotsc, a_{m, s})^{\top} \in \mathbb{K}^m\) gli \(n\) vettori colonna che compongono la matrice \(A\). Risulta utile osservare che i vettori \(\{\mathbf{a}_s\}\) generano l'immagine di \(A\). Insomma, deriva dalla definizione del prodotto di matrici: \(A\mathbf{v} = \sum_{i=0}^{s} v_i\mathbf{a}_i\), dove \(\mathbf{v} = (v_{1}, \dotsc, v_{n})^{\top} \in \mathbb{K}^n\). Ovviamente risulta che \(\rho(A) = \dim\mathrm{Im}\, A \le \min( n, m )\).

I vettori \(\mathbf{a}_s\) sono a loro volta espressi come somme di elementi di una qualche base \(\{\mathbf{f}_i\}\) di \(\mathbb{K}^m\). Uso inoltre \(\{\mathbf{e}_i\}\) per indicare la base usata per gli elementi di \(\mathbb{K}^n\), ovvero per i vettori tali che \(A\mathbf{e}_i = \mathbf{a}_i\).

Siano quindi \( \alpha =\{\alpha_s \in \mathbb{N} : (1 \le s \le q) \wedge (1 \le \alpha_s \le m) \wedge (\alpha_s = \alpha_{s'} \Rightarrow s = s') \} \) e \( \mathbf{\beta} =\{\beta_s \in \mathbb{N} : (1 \le s \le q) \wedge (1 \le \beta_s \le n) \wedge (\beta_s = \beta_{s'} \Rightarrow s = s') \} \) due successioni di \(q\) interi distinti. Il minore di ordine \(q\) associato alle successioni \((\alpha,\beta)\) è il minore:
\[ \begin{vmatrix} a_{\alpha_1, \beta_1} & \dots & a_{\alpha_1, \beta_q} \\
\vdots & \ddots & \vdots \\
a_{\alpha_q, \beta_1} & \dots & a_{\alpha_q, \beta_q}
\end{vmatrix} \]

A cosa corrisponde la seguente matrice in termini di applicazioni lineari? \[ \begin{pmatrix} a_{\alpha_1, \beta_1} & \dots & a_{\alpha_1, \beta_q} \\
\vdots & \ddots & \vdots \\
a_{\alpha_q, \beta_1} & \dots & a_{\alpha_q, \beta_q}
\end{pmatrix} \]
Per prima cosa si sta considerando lo spazio vettoriale \(\mathrm{Span}( \mathbf{e}_{\beta_1},\dotsc, \mathbf{e}_{\beta_q})\) come dominio dell'applicazione lineare. Dopo di che si sta componendo \(A\) con l'applicazione lineare: \[P_{\alpha}\mathbf{f}_i = \begin{cases} \mathbf{f}_i & \text{ se } i \in \alpha \\
\mathbf{0} & \text{ altrimenti} \end{cases}\]

Considerare il minore di ordine \(q\) associato alle successioni \((\alpha,\beta)\) equivale un po' ad osservare se \(\dim \mathrm{Im}\,P_{\alpha}A|_{\mathrm{Span}( \mathbf{e}_{\beta_1},\dotsc, \mathbf{e}_{\beta_q})} = q\).

Veniamo ora alla dimostrazione.

Lemma 1 Ogni minore di ordine \(q > \rho(A)\) è nullo.

Dimostrazione Lemma 1 Risulta dal fatto che \(\dim \mathrm{Span}( P_{\alpha}\mathbf{a}_{\beta_1},\dotsc, P_{\alpha}\mathbf{a}_{\beta_q}) \le \dim \mathrm{Span}( \mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}) = \rho(A)\). In pratica quello che ha detto il professore. \(\blacksquare\)

Possiamo ora dimostrare il teorema:

Teorema 1 La caratteristica di una matrice \(A\) corrisponde all'ordine del minore non nullo di ordine massimo in \(A\).

Dimostrazione: Se \(A\) è nulla, allora il tutto è banalmente vero. Se \(A\) non è nulla allora possiede almeno una componente non nulla e quindi possiede minori non nulli. Siccome \(\dim A\) è finito, esiste sempre un minore di ordine massimo tra quelli non nulli. Sia \(q\) il suo ordine. Per il lemma 1, sappiamo che si ha \(q \le \rho(A)\). Supponiamo quindi che assurdo che si abbia \(q < \rho(A)\).

Siano \(\alpha\) e \(\beta\) le successioni relative al minore di ordine massimo. Siccome \(q < \rho(A)\), esiste un \(\ell \notin \beta\) tale che \(\mathrm{Span}( \mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}, \mathbf{a}_{\ell}) = q+1\). Siccome abbiamo supposto, per assurdo, che \(q\) sia massimo, allora ogni minore del tipo \((\alpha\cup \{l\} , \beta\cup \{\ell \} )\) devrebbe essere nullo. Ma questo è assurdo perché i \(\{\mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}, \mathbf{a}_{\ell}\}\) sono linearmente indipendenti. In pratica, i vettori \(\{\mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}, \mathbf{a}_{\ell}\}\) vengono mandati da \(P_{\alpha}\) in un sottospazio di dimensione \(q\) in cui sono linearmente indipendenti ed esistono \(q\) elementi di \(k_i\in \mathbb{K}\) tali che \(P_{\alpha}\mathbf{a}_{\ell} = \sum_{i = 1}^{q} k_i P_{\alpha}\mathbf{a}_{\beta_i}\) ovvero vale \(a_{\alpha_j, \ell} = \sum_{i = 1}^{q} k_i a_{\alpha_j, \beta_i}\) per ogni \(1\le j\le q\). Se per ogni \(j\notin \alpha\) valesse \(a_{j, \ell} = \sum_{i = 1}^{q} k_i a_{j, \beta_i}\) allora si avrebbe \(a_{j, \ell} = \sum_{i = 1}^{q} k_i a_{j, \beta_i}\) per ogni \(1< j < n\) contro l'ipotesi di indipendenza lineare. Ovviamente è possibile ragionarci usando i determinanti.
vict85
Moderatore
Moderatore
 
Messaggio: 9985 di 10014
Iscritto il: 16/01/2008, 00:13
Località: Berlin

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 16/11/2019, 10:33

Grazie! Questa sì che è una dimostrazione!
Elisa_T
Starting Member
Starting Member
 
Messaggio: 16 di 16
Iscritto il: 04/12/2018, 19:35

Precedente

Torna a Geometria e algebra lineare

Chi c’è in linea

Visitano il forum: Nessuno e 16 ospiti

cron