Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 12/11/2019, 19:46

Sto studiando i teoremi. Ma molti non li capisco. Cioè non capisco
il modo in cui ci si richiede di ragionare.

Non pochi sono del tipo che, inizialmente, si stabilisce che due
grandezze stanno nel rapporto di $<=$. Nel seguito si fa vedere
che le stesse grandezze - e nello stesso ordine, ovviamente -
stanno anche nel rapporto di $>=$ e se ne conclude che, perciò,
esse coincidono c.v.d.. Non so come si definisca questo tipo di
dimostrazione, ma l'importante non è come si chiamino quanto,
piuttosto, il fatto che io non riesco a capirle.

In merito a quanto in oggetto il prof. dice di considerare $n$
vettori e di formare con essi le colonne di una matrice, $A_{m,n}$.
Poi, prosegue: "Sia $\rho(a) = p$ la caratteristica di $A$
($p<=m$; $p<=n$). Poiché i vettori-colonne generano in $K^m$
un sottospazio avente dimensione $p$, $p+1$ colonne di $A$,
comunque scelte, sono linearmente dipendenti su $K$ e, quindi,
sono tutti nulli i minori di ordine $p+1$ di $A$ (e, naturalmente,
anche quelli di ordine maggiore di $p+1$)."

E fin qui ci arrivo anch'io perché si tratta della definizione di $\rho(A)$.

Ma il prof. prosegue: "Viceversa sia $q$ il massimo ordine di minori non
nulli che si possono estrarre da $A$, sicché $q<=p$ ...".

E qui mi blocco. Perché occorre introdurre $q$ ?

Cioè ipotizzare un generico massimo ordine "$q$" di minori non nulli?

Quando già sappiamo - mi sembra - che, se si ha un sottospazio
avente dimensione $p$ - come recita il testo del teorema -, tutti
i minori di ordine $>p$ sono nulli?

Qualcuno potrebbe riuscire a farmi capire che cosa mi sta sfuggendo
nell'argomentazione della dimostrazione del teorema effettuata dal
prof.? Grazie $oo$!
Elisa_T
Starting Member
Starting Member
 
Messaggio: 10 di 32
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda vict85 » 13/11/2019, 14:44

Elisa_T ha scritto:Non pochi sono del tipo che, inizialmente, si stabilisce che due grandezze stanno nel rapporto di $<=$. Nel seguito si fa vedere che le stesse grandezze - e nello stesso ordine, ovviamente - stanno anche nel rapporto di $>=$ e se ne conclude che, perciò, esse coincidono c.v.d.. Non so come si definisca questo tipo di dimostrazione, ma l'importante non è come si chiamino quanto, piuttosto, il fatto che io non riesco a capirle.


Non capisco cosa ti sfugge. Dimostrare che \(a \le b\) equivale a far vedere che non è vero che \(a > b\). Similmente, dimostrare che \(a \ge b\) equivale a far vedere che non è vero che \(a < b\). Se qualcosa non è né più grande né più piccola, si deduce che ha la stessa grandezza1. Per esempio, se un ragazzo di nome Michele ha una età maggiore o uguale alla tua e nello stesso tempo ha una età minore o uguale alla tua, allora deve avere per forza la tua stessa età.

Ora, questa dimostrazione viene usata perché è spesso più facile fare dimostrazioni con gli ordini piuttosto che con le uguaglianze. Tutto qui.

Elisa_T ha scritto:In merito a quanto in oggetto il prof. dice di considerare $n$ vettori e di formare con essi le colonne di una matrice, $A_{m,n}$. Poi, prosegue: "Sia $\rho(a) = p$ la caratteristica di $A$ ($p<=m$; $p<=n$). Poiché i vettori-colonne generano in $K^m$ un sottospazio avente dimensione $p$, $p+1$ colonne di $A$, comunque scelte, sono linearmente dipendenti su $K$ e, quindi, sono tutti nulli i minori di ordine $p+1$ di $A$ (e, naturalmente, anche quelli di ordine maggiore di $p+1$)."

E fin qui ci arrivo anch'io perché si tratta della definizione di $\rho(A)$.

Ma il prof. prosegue: "Viceversa sia $q$ il massimo ordine di minori non nulli che si possono estrarre da $A$, sicché $q<=p$ ...".

E qui mi blocco. Perché occorre introdurre $q$ ?

Cioè ipotizzare un generico massimo ordine "$q$" di minori non nulli?

Quando già sappiamo - mi sembra - che, se si ha un sottospazio avente dimensione $p$ - come recita il testo del teorema -, tutti i minori di ordine $>p$ sono nulli?

Qualcuno potrebbe riuscire a farmi capire che cosa mi sta sfuggendo nell'argomentazione della dimostrazione del teorema effettuata dal prof.? Grazie $oo$!


Il punto è appunto che sai che non ci sono minori di ordine maggiore di \(p\) che non si annullino, ma aprioristicamente non è detto che \(q = p\). Insomma, magari tutti i minori di ordine \(p\) si annullano in quella particolare matrice. Il professore vuole far vedere che esiste almeno un minore di ordine \(p\) che non si annulla, e che anzi la stessa cosa deve valere per ogni ordine minore di \(p\). O per lo meno è quello che immagino dato che manca l'enunciato.

Note

  1. Che nel caso di relazione di ordine complete vuol dire che sono uguali.
vict85
Moderatore
Moderatore
 
Messaggio: 9975 di 19253
Iscritto il: 16/01/2008, 00:13
Località: Berlin

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 13/11/2019, 15:51

Ringrazio molto Sergio e vict85, che sono intervenuti per aiutarmi,
e avrei anche dei commenti da fare, ma li rimando, perché entrambi
richiedono - giustamente - di procedere con ordine e postare il testo.

Non riesco dal cellulare e lo farò non appena a casa un po' più tranquilla.

Per ora, grazie!
Elisa_T
Starting Member
Starting Member
 
Messaggio: 11 di 32
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 14/11/2019, 11:21

Avevo preso l'impegno con Sergio e vict85 di riportare il testo del teorema, che segue.

Inizialmente, il prof. definisce la caratteristica di una matrice:
"Consideriamo, insieme alla matrice di tipo $(m,n)$:
$A$ = $((a_{1,1}, a_{1,2}, ..., a_{1,n}), (a_{2,1}, a_{2,2}, ..., a_{2,n}), (..., ..., ..., ...),(a_{m,1}, a_{m,2}, ..., a_{m,n}))$ = $(a_{r,s})$ gli $n$ vettori $(a_{1,i}, a_{2,1}, ..., a_{m,i})inK^m$, che hanno
come coordinate gli elementi delle singole colonne di $A$ e il sottospazio $W$ da essi generato.
L'intero $\rho(A) = dim W$ dicesi caratteristica o rango della matrice $A$. Risulta $\rho(A)<=n$, $\rho(A)<=m$."

A questo punto, il prof. intende dimostrare il teorema che afferma che la caratteristica di una matrice si può anche definire come ordine massimo dei suoi minori non nulli.

Dice:" Consideriamo gli $n$ vettori: $xi_s = (a_{1,s}, a_{2,s}, ... a_{m,s})inK^m$ $(s=1,2, ..., n)$
e con essi formiamo le colonne della matrice: $((a_{1,1}, a_{1,2}, ..., a_{1,n}), (a_{2,1}, a_{2,2}, ..., a_{2,n}), (..., ..., ..., ...),(a_{m,1}, a_{m,2}, ..., a_{m,n}))$. Sia $\rho(A) = p$ la caratteristica di $A$ $(p<=m; p<=n)$. Poiché i vettori $xi_s$ generano in $K^m$ un sottospazio avente dimensione $p$, $p+1$ colonne di $A$, comunque scelte, risultano linearmente dipendenti su $K$ e, quindi, sono tutti nulli i minori di ordine $p+1$ di $A$ (e, naturalmente, anche quelli di ordine maggiore di $p+1$).

Viceversa, sia $q$ il massimo ordine di minori non nulli che si possono estrarre da $A$ (sicché $q<=p$) e sia,
ad es., $|(a_{1,1}, a_{1,2}, ..., a_{1,q}), (a_{2,1}, a_{2,2}, ..., a_{2,q}), (..., ..., ..., ...),(a_{q,1}, a_{q,2}, ..., a_{q,q})|$ = $\mu != 0$.

Risulta, perciò, nullo ogni determinante del tipo $|(a_{1,1}, ..., a_{1,q}, a_{1,j}), (..., ..., ..., ...), (a_{q,1}, ..., a_{q,q}, a_{q,j}),(a_{l,1}, ..., a_{l,q}, a_{l,j})|$ = $\lambda_1a_{l,1}+\lambda_2a_{l,2} + ... +\lambda_qa_{l,q}+\lambdaa_{l,j}$ $(j = 1,2, ..., n; l = 1,2, ..., m)$. [ma qui non mi sembra corretto che l'indice $j$ (quello delle colonne) possa partire da $1$ (l'$1$ c'è già, dovrebbe partire da $q+1$, altrimenti si replicherebbero colonne e, allora, che minore sarebbe? E lo stesso ragionamento dovrebbe valere anche per $l$. Dovrebbe partire da $q$, altrimenti si replicherebbero righe. O no?]

Ma, ovviamente, $\lambda = mu != 0$, quindi il vettore $xi_j$ risulta combinazione lineare di $xi_1$, $xi_2$, ..., $xi_q$ [questo, ovviamente, perché il determinante può essere calcolato lungo qualunque riga]. Perciò la dimensione $\rho(A) = p$ del sottospazio generato dai vettori-colonne $xi_1$, $xi_2$, ..., $xi_n$ risulta $p<=q$. Dunque, $p = q$ c.v.d. (cioè la caratteristica di una matrice si può anche definire come ordine massimo dei suoi minori non nulli secondo l'ipotesi)."

A me sembra un modo un po' artificioso di procedere, ma non vorrei apparire scorrettamente critica quando, invece, le difficoltà di comprensione di questo modo di ragionare dipendono esclusivamente da me.

Per ora, nuovamente, grazie!
Elisa_T
Starting Member
Starting Member
 
Messaggio: 12 di 32
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 15/11/2019, 11:42

2) Le considerazioni generali mi risultano chiare.

1) Non mi risulta chiaro il testo del teorema che ho inserito in quanto, dopo aver fatto riferimento a un minore di ordine supposto $q$ (ancora diverso da zero - e, dato che gli elementi che compaiono nel minore "si chiamano" allo stesso modo di quelli della matrice originaria $A$, come se le colonne linearmente indipendenti fossero già state tutte allineate "a sinistra", anche se non viene affermato esplicitamente -), si passa a citare un deteminante $l,j$ che - risultando di ordine maggiore - non può che essere nullo.

Ma se, ad es., $j$ valesse $1$, avrei che - in questo determinante - la prima colonna (quella di $a_{1,1}$) - e quella di $a_{1,j}$ - nel caso in cui $j$ valga $1$ - risulterebbero identiche. A parte il fatto che è evidente che - con due colonne uguali - si ha un determinante nullo, come può un minore avere due colonne coincidenti?

Un minore è sempre un'estrazione a partire da una matrice data! Non può contenere righe o colonne duplicate!

A meno che già non le avesse la matrice di partenza, ma ciò non può rappresentare la generica situazione di una generica matrice ...

Ecco, qui avrei bisogno di essere aiutata a capire, perché da sola mi sono persa. E' evidente che, anche se non è direttamente esplicitato nel testo, che ho riprodotto integralmente, si tratta sempre di determinanti di minori della matrice di partenza perché se ne deve dimostrare la nullità oltre un certo ordine in connessione col concetto di caratteristica della matrice stessa.

Grazie davvero!
Elisa_T
Starting Member
Starting Member
 
Messaggio: 13 di 32
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda vict85 » 15/11/2019, 13:25

Il minore è il determinante di una matrice che è ottenuta da quella di partenza eliminando righe e colonne. La matrice in questione può avere righe uguali e persino nulle anche se la matrice ha determinante non nullo.

Esempio consideriamo la matrice identità di \(\mathrm{M}(6, \mathbb{R})\):
\[I = \begin{pmatrix}
1 & 0 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 & 0 \\
0 & 0 & 1 & 0 & 0 & 0 \\
0 & 0 & 0 & 1 & 0 & 0 \\
0 & 0 & 0 & 0 & 1 & 0 \\
0 & 0 & 0 & 0 & 0 & 1 \end{pmatrix}
\]
Se eliminiamo le prime 3 righe e le ultime 3 colonne, ricaviamo la matrice nulla \[\mathbf{0} = \begin{pmatrix}
0 & 0 & 0 \\
0 & 0 & 0 \\
0 & 0 & 0 \end{pmatrix}\]

Dubbi?
vict85
Moderatore
Moderatore
 
Messaggio: 9983 di 19253
Iscritto il: 16/01/2008, 00:13
Località: Berlin

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 15/11/2019, 14:16

vict85 ha scritto:Il minore è il determinante di una matrice che è ottenuta da quella di partenza eliminando righe e colonne. La matrice in questione può avere righe uguali e persino nulle anche se la matrice ha determinante non nullo.


Ma è ovvio e neppure io stavo dicendo - né posso pensare - diversamente. Evidentemente non riesco a esplicitare i miei dubbi. Stavo facendo riferimento al testo del teorema che ho trascritto parola per parola.

E il mio dubbio riguarda l'indicizzazione, come ho scritto, che non riesco a capire. Non mi sembrava corretto, "per rappresentare" un generico minore di ordine superiore a $q$ poter replicare - perché la notazione indica che ciò sarebbe possibile -una colonna già esistente, proprio perché - anche secondo la formulazione della definizione di minore da te fornita - si tratta sempre di una "selezione". Non si "duplicano" colonne. Che una generica matrice possa avere colonne o righe nulle o eguali è pacifico.

Sono molto frustrata dal non riuscire a spiegarmi. :( Riaccludo di seguito quanto avevo scritto:

Elisa_T ha scritto:Sia $ q $ il massimo ordine di minori non nulli che si possono estrarre da $ A $ (sicché $ q<=p $) e sia,
ad es., $ |(a_{1,1}, a_{1,2}, ..., a_{1,q}), (a_{2,1}, a_{2,2}, ..., a_{2,q}), (..., ..., ..., ...),(a_{q,1}, a_{q,2}, ..., a_{q,q})| $ = $ \mu != 0 $.

Risulta, perciò, nullo ogni determinante del tipo $ |(a_{1,1}, ..., a_{1,q}, a_{1,j}), (..., ..., ..., ...), (a_{q,1}, ..., a_{q,q}, a_{q,j}),(a_{l,1}, ..., a_{l,q}, a_{l,j})| $ = $ \lambda_1a_{l,1}+\lambda_2a_{l,2} + ... +\lambda_qa_{l,q}+\lambdaa_{l,j} $ $ (j = 1,2, ..., n; l = 1,2, ..., m) $. [ma qui non mi sembra corretto che l'indice $ j $ (quello delle colonne) possa partire da $ 1 $ (l'$ 1 $ c'è già, dovrebbe partire da $ q+1 $, altrimenti si replicherebbero colonne e, allora, che minore sarebbe? E lo stesso ragionamento dovrebbe valere anche per $ l $. Dovrebbe partire da $ q $, altrimenti si replicherebbero righe.]


E' chiaro che se si prendono le prime $q$ colonne di sinistra della matrice, si ha un suo minore di ordine $q$.
Ma, dato che l'indicizzazione, in matematica, non può essere uno scherzo, se - come l'indice $j$ consente, come ho scritto - si attribuisce a $j$ il valore di $1$, il determinante che contiene $a_{1,j}$ è come se avesse la prima colonna replicata (non saprei come altrimenti scrivere :? ) e questo - secondo me - non può essere un modo adeguato per poter rappresentare il "generico" minore di ordine $q+1$ di quella matrice.

Sono convinta che la notazione sia infelice perché, se si procede "orlando" con righe e colonne e tenendo "fermo" il minore di ordine $q$ si dovranno usare altre righe e altre colonne della matrice, cioè "diverse". E, allora, l'indicizzazione adottata non può andare bene. Sia $l$ sia $j$ dovrebbero partire da $q+1$. Altrimenti non rispetto la definizione di minore e, finché $l$ e $j$ risultano $<=q$, duplico indebitamente righe/colonne.

A mio avviso (ed è qui che chiedevo chiarmenti) la notazione corretta sarebbe dovuta essere $q+1<=l<=m$ e $q+1<=j<=n$.

Grazie per l'attenzione e la pazienza :) !

P.S.: mi rendo conto che "orlare" non è l'unica modalità di ottenere minori di ordine $q+1$, ma il teorema, per ora, indica questa. E non vorrei "mettere troppa carne al fuoco" perché, probabilmente, l'indicizzazione corretta per il generico minore di ordine $q+1$ ottenuto non "orlando" potrebbe riuscirmi ancora più ostica.
Elisa_T
Starting Member
Starting Member
 
Messaggio: 14 di 32
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda vict85 » 15/11/2019, 15:40

Ok, si hai ragione: il professore ha usato una notazione un po' discutibile senza motivarla.

D'altra parte, a patto di riordinare i vettori e gli elementi della base in cui sono espressi, è sempre possibile portarsi al caso in cui il minore formato dalle prime \(q\) righe e \(q\) colonne è quello non nullo.
vict85
Moderatore
Moderatore
 
Messaggio: 9984 di 19253
Iscritto il: 16/01/2008, 00:13
Località: Berlin

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda Elisa_T » 15/11/2019, 16:28

vict85 ha scritto:Ok, si hai ragione: il professore ha usato una notazione un po' discutibile senza motivarla.

D'altra parte, a patto di riordinare i vettori e gli elementi della base in cui sono espressi, è sempre possibile portarsi al caso in cui il minore formato dalle prime \(q\) righe e \(q\) colonne è quello non nullo.


Innanzitutto, grazie per il chiarimento! Certo, quanto scrivi corrisponde anche al mio ulteriore dubbio, perché
- anche se è vero che "per poter concludere che una matrice ha rango $p$ basta conoscere un minore di ordine $p$ non nullo e constatare che sono nulli i minori di ordine $p+1$ che lo contengono (teorema di Kronecker)" - il teorema di Kronecker non era stato ancora fatto.

D'altronde, certamente ci si può sempre riportare - riordinando opportunamente - al caso del minore non nullo costituito dalle prime $q$ colonne e $q$ righe della matrice.

Ma ciò che intendevo dire - e che non sono riuscita a esprimere adeguatamente - è che, se anche si opera la dimostrazione su una matrice "riordinata" e anche se ci "si restringe" nel corso della dimostrazione del teorema (per il "successivo" teorema di Kronecker) a procedere mediante minori di ordine superiore a $q$ unicamente "orlando", il range di validità degli indici $j = 1,2, ..., n; l = 1,2, ..., m$ rimane, comunque, sbagliato perché "indicherebbe" cose, che non sarebbero,comunque, in generale, minori di quella matrice!

Per gli indici non può che valere $q+1≤l≤m$ e $q+1≤j≤n$.

Avrei, gentilmente, soltanto bisogno di una conferma di questo. Non m'interessa assolutamente criticare nessuno, ma, per procedere, ho bisogno - date le ore che dedico allo studio, non essendo particolarmente portata -se riesco davvero a capire qualcosa o se non sarebbe meglio fare altro ... :?

Ancora grazie! :)
Elisa_T
Starting Member
Starting Member
 
Messaggio: 15 di 32
Iscritto il: 04/12/2018, 19:35

Re: Condizione per la lineare dipendenza di vettori di $K^m$

Messaggioda vict85 » 15/11/2019, 21:07

Dovresti cercare di focalizzarti più sul significato generale che sull'aspetto particolare. Se capisci il principio generale, puoi sempre provare a scrivere tu la dimostrazione correggendo le semplificazioni del professore.

Provo a scrivere quello che penso intendesse il professore. Cominciamo con qualche considerazione generale.

Siano \(\mathbf{a}_s = (a_{1, s}, \dotsc, a_{m, s})^{\top} \in \mathbb{K}^m\) gli \(n\) vettori colonna che compongono la matrice \(A\). Risulta utile osservare che i vettori \(\{\mathbf{a}_s\}\) generano l'immagine di \(A\). Insomma, deriva dalla definizione del prodotto di matrici: \(A\mathbf{v} = \sum_{i=0}^{s} v_i\mathbf{a}_i\), dove \(\mathbf{v} = (v_{1}, \dotsc, v_{n})^{\top} \in \mathbb{K}^n\). Ovviamente risulta che \(\rho(A) = \dim\mathrm{Im}\, A \le \min( n, m )\).

I vettori \(\mathbf{a}_s\) sono a loro volta espressi come somme di elementi di una qualche base \(\{\mathbf{f}_i\}\) di \(\mathbb{K}^m\). Uso inoltre \(\{\mathbf{e}_i\}\) per indicare la base usata per gli elementi di \(\mathbb{K}^n\), ovvero per i vettori tali che \(A\mathbf{e}_i = \mathbf{a}_i\).

Siano quindi \( \alpha =\{\alpha_s \in \mathbb{N} : (1 \le s \le q) \wedge (1 \le \alpha_s \le m) \wedge (\alpha_s = \alpha_{s'} \Rightarrow s = s') \} \) e \( \mathbf{\beta} =\{\beta_s \in \mathbb{N} : (1 \le s \le q) \wedge (1 \le \beta_s \le n) \wedge (\beta_s = \beta_{s'} \Rightarrow s = s') \} \) due successioni di \(q\) interi distinti. Il minore di ordine \(q\) associato alle successioni \((\alpha,\beta)\) è il minore:
\[ \begin{vmatrix} a_{\alpha_1, \beta_1} & \dots & a_{\alpha_1, \beta_q} \\
\vdots & \ddots & \vdots \\
a_{\alpha_q, \beta_1} & \dots & a_{\alpha_q, \beta_q}
\end{vmatrix} \]

A cosa corrisponde la seguente matrice in termini di applicazioni lineari? \[ \begin{pmatrix} a_{\alpha_1, \beta_1} & \dots & a_{\alpha_1, \beta_q} \\
\vdots & \ddots & \vdots \\
a_{\alpha_q, \beta_1} & \dots & a_{\alpha_q, \beta_q}
\end{pmatrix} \]
Per prima cosa si sta considerando lo spazio vettoriale \(\mathrm{Span}( \mathbf{e}_{\beta_1},\dotsc, \mathbf{e}_{\beta_q})\) come dominio dell'applicazione lineare. Dopo di che si sta componendo \(A\) con l'applicazione lineare: \[P_{\alpha}\mathbf{f}_i = \begin{cases} \mathbf{f}_i & \text{ se } i \in \alpha \\
\mathbf{0} & \text{ altrimenti} \end{cases}\]

Considerare il minore di ordine \(q\) associato alle successioni \((\alpha,\beta)\) equivale un po' ad osservare se \(\dim \mathrm{Im}\,P_{\alpha}A|_{\mathrm{Span}( \mathbf{e}_{\beta_1},\dotsc, \mathbf{e}_{\beta_q})} = q\).

Veniamo ora alla dimostrazione.

Lemma 1 Ogni minore di ordine \(q > \rho(A)\) è nullo.

Dimostrazione Lemma 1 Risulta dal fatto che \(\dim \mathrm{Span}( P_{\alpha}\mathbf{a}_{\beta_1},\dotsc, P_{\alpha}\mathbf{a}_{\beta_q}) \le \dim \mathrm{Span}( \mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}) = \rho(A)\). In pratica quello che ha detto il professore. \(\blacksquare\)

Possiamo ora dimostrare il teorema:

Teorema 1 La caratteristica di una matrice \(A\) corrisponde all'ordine del minore non nullo di ordine massimo in \(A\).

Dimostrazione: Se \(A\) è nulla, allora il tutto è banalmente vero. Se \(A\) non è nulla allora possiede almeno una componente non nulla e quindi possiede minori non nulli. Siccome \(\dim A\) è finito, esiste sempre un minore di ordine massimo tra quelli non nulli. Sia \(q\) il suo ordine. Per il lemma 1, sappiamo che si ha \(q \le \rho(A)\). Supponiamo quindi che assurdo che si abbia \(q < \rho(A)\).

Siano \(\alpha\) e \(\beta\) le successioni relative al minore di ordine massimo. Siccome \(q < \rho(A)\), esiste un \(\ell \notin \beta\) tale che \(\mathrm{Span}( \mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}, \mathbf{a}_{\ell}) = q+1\). Siccome abbiamo supposto, per assurdo, che \(q\) sia massimo, allora ogni minore del tipo \((\alpha\cup \{l\} , \beta\cup \{\ell \} )\) devrebbe essere nullo. Ma questo è assurdo perché i \(\{\mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}, \mathbf{a}_{\ell}\}\) sono linearmente indipendenti. In pratica, i vettori \(\{\mathbf{a}_{\beta_1},\dotsc, \mathbf{a}_{\beta_q}, \mathbf{a}_{\ell}\}\) vengono mandati da \(P_{\alpha}\) in un sottospazio di dimensione \(q\) in cui sono linearmente indipendenti ed esistono \(q\) elementi di \(k_i\in \mathbb{K}\) tali che \(P_{\alpha}\mathbf{a}_{\ell} = \sum_{i = 1}^{q} k_i P_{\alpha}\mathbf{a}_{\beta_i}\) ovvero vale \(a_{\alpha_j, \ell} = \sum_{i = 1}^{q} k_i a_{\alpha_j, \beta_i}\) per ogni \(1\le j\le q\). Se per ogni \(j\notin \alpha\) valesse \(a_{j, \ell} = \sum_{i = 1}^{q} k_i a_{j, \beta_i}\) allora si avrebbe \(a_{j, \ell} = \sum_{i = 1}^{q} k_i a_{j, \beta_i}\) per ogni \(1< j < n\) contro l'ipotesi di indipendenza lineare. Ovviamente è possibile ragionarci usando i determinanti.
vict85
Moderatore
Moderatore
 
Messaggio: 9985 di 19253
Iscritto il: 16/01/2008, 00:13
Località: Berlin

Prossimo

Torna a Geometria e algebra lineare

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite