GiammarcoP ha scritto:Ogni tanto negli esercizi che svolgo di algebra lineare sembra valere la seguente proposizione:
"Siano v e w due vettori di uno spazio vettoriale V. Se il vettore contenente le coordinate di v rispetto una determinata base B di V è linearmente indipendente rispetto al vettore contente le coordinate di w rispetto la medesima base B, allora v e w sono linearmente indipendenti".
E' esatta la proposizione? Se così fosse, non riesco a cogliere una dimostrazione rapida. Qualcuno può aiutarmi?
esatta o meno, non ho mai incontrato la definizione "un vettore è linearmente (in)dipendente rispetto ad un altro", ho incontrato la definizione di "due vettori sono linearmente (in)dipendenti su un campo"... aldilà di questo, ho capito cosa intendi, tu vuoi dimostrare:
Prop.: sia \(V\) un \(\mathbb{K}\) spazio vettoriale con una sua base \(\mathcal{B}:=(b_1,b_2,...,b_n)\), e \(v,w \in V\), allora $$([v]_\mathcal{B},[w]_\mathcal{B}) \text{ è libero su } \mathbb{K} \to (v,w) \text{ è libero su } \mathbb{K}$$ la dimostrazione è di una semplicità assurda, basta applicare la definizione di lineare indipendenza su un campo e le ipotesi a disposizione...(io preferisco sporcarmi, quando capita, le mani piuttosto che spendere belle parole)
Proof: l'ipotesi principale è che $$([v]_\mathcal{B},[w]_\mathcal{B}) \text{ è libero su } \mathbb{K} $$ ricordando che \(\mathbb{K}^n\) è spazio vettoriale su \(\mathbb{K}\), quell'ipotesu significa semplicemente $$\forall \alpha,\beta \in \mathbb{K}(\alpha\cdot [v]_\mathcal{B}+\beta \cdot [w]_\mathcal{B}=0_{\mathbb{K}^n} \rightarrow \alpha=\beta=0_\mathbb{K}) $$ dovendo dimostrare se è vera la tesi $$\forall {\alpha}',{\beta}' \in \mathbb{K}( {\alpha}'\cdot v+{\beta}' \cdot w=0_V \rightarrow {\alpha}'={\beta}' =0_\mathbb{K}) $$ considera \({\alpha}'\cdot v+{\beta}' \cdot w=0_V\), dalle ipotesi \(v\) e \(w \) ammettono decomposizione unica rispetto alla base \(\mathcal{B}\) ovvero:$$v=\sum_{i=1}^n v_i\cdot b_i \; \;\text{ con }(v_i)_{i=1}^n=[v]_\mathcal{B} \; \; \; \;\text{ e } \; \; \;\; w=\sum_{i=1}^n w_i\cdot b_i \; \;\text{ con } (w_i)_{i=1}^n=[w]_\mathcal{B}$$ detto ciò riconsidera la predente combinazione lineare: $${\alpha}'\cdot v+{\beta}' \cdot w={\alpha}'\cdot \sum_{i=1}^n v_i\cdot b_i+{\beta}' \cdot \sum_{i=1}^n w_i\cdot b_i=...=\sum_{i=1}^n({\alpha}'\cdot v_i + {\beta}'\cdot w_i)\cdot b_i=0_V$$ ma \(\mathcal{B}\) è base per \(V\) ergo è anche lin. indip. su \(\mathbb{K}\): $$\sum_{i=1}^n({\alpha}'\cdot v_i + {\beta}'\cdot w_i)\cdot b_i=0_V \to {\alpha}'\cdot v_i + {\beta}'\cdot w_i=0_\mathbb{K}, \;\forall i \in \{1,2,..,n\} $$ si deduce anche che $$ {\alpha}'\cdot v_i + {\beta}'\cdot w_i=0_\mathbb{K}, \;\forall i \in \{1,2,..,n\} \rightarrow {\alpha}'\cdot [v]_\mathcal{B}+{\beta}' \cdot [w]_\mathcal{B}=0_{\mathbb{K}^n}$$ e ricordando l'ipotesi principale (cioè che ogni combinazione lineare dei due vettori \( [v]_\mathcal{B}\) e \( [w]_\mathcal{B}\)...bla bla) si deduce finalmente che \( {\alpha}'={\beta}'=0_\mathbb{K}\), cioè la tesi..