Ciao, mi piacerebbe se qualcuno potesse controllare la correttezza di questi esercizi:
\(\displaystyle \bullet \) Trova la costante \(\displaystyle c \) più grande nella relazione \(\Vert \sum_n\alpha_nx_n\Vert\ge c\sum_n|\alpha_n| \) per un insieme di vettori linearmente indipendenti \(\displaystyle \{x_1,...,x_n\} \) nel caso \(\displaystyle X=\mathbb{R}^2, x_1=(1,0), x_2=(0,1) \).
In questo caso \(\Vert \sum_n\alpha_nx_n\Vert=\Vert (\alpha_1,\alpha_2)\Vert=(\alpha_1^2+\alpha_2^2)^{1/2} \). Quindi, per qualche $c$, \((\alpha_1^2+\alpha_2^2)^{1/2}\ge c(|\alpha_1|+|\alpha_2|) \). Dato che \((\alpha_1^2+\alpha_2^2)^{1/2}\le |\alpha_1|+|\alpha_2| \), deve sicuramente essere \(\displaystyle c\in[0,1) \). Imponendo l'uguaglianza si ottiene \(\displaystyle c=(\alpha_1^2+\alpha_2^2)^{1/2}/(|\alpha_1|+|\alpha_2|) \), che dovrebbe essere anche il valore massimo della costante.
\(\displaystyle \bullet \) Norme equivalenti su $X$ vi inducono la stessa topologia.
Indurre la stessa topologia significa generare gli stessi insiemi aperti. Siccome ogni aperto può essere scritto come unione di palle aperte, bisogna mostrare che se \(\displaystyle B_r(x_0)=\{x\in X:d(x,x_0)<r\} \) è aperto secondo la distanza indotta dalla norma \(\displaystyle \Vert\cdot\Vert \), allora è aperto anche secondo la distanza \(\displaystyle d_0 \) indotta da \(\displaystyle \Vert \cdot\Vert_0 \). Considero il caso $x_0=0$ (in teoria posso sempre ricondurmi a questo con le traslazioni). Siccome la norma coincide con la distanza dall'origine, l'insieme da considerare è quello degli $x$ che soddisfano \(\displaystyle \Vert x\Vert<r \): per questi vettori deve quindi essere \(\displaystyle \Vert x\Vert_0<r \). Per ipotesi, si ha \(\displaystyle a\Vert x\Vert_0\le\Vert x\Vert\le b\Vert x\Vert_0 \). Invertendo il ruolo delle norme nella catena di disuguaglianze, \(\displaystyle a\Vert x\Vert\le\Vert x\Vert_0\le b\Vert x\Vert \) (lecito perché l'equivalenza è riflessiva), da cui si vede che la tesi è rispettata per \(\displaystyle \Vert x\Vert<r/b \), sempre vero poiché \(\displaystyle b>0 \).
\(\displaystyle \bullet \) Se due norme sono equivalenti, le successioni di Cauchy nei rispettivi spazi coincidono.
Sia \(\displaystyle x_n \) di Cauchy per \(\displaystyle (X,\Vert\cdot\Vert) \). Si ha dunque \(\displaystyle d(x_n,x_m)=\Vert x_n-x_m\Vert<\epsilon \). \(\displaystyle x_n \) è di Cauchy per \(\displaystyle (X,\Vert\cdot\Vert_0) \) se anche \(\displaystyle \Vert x_n-x_m\Vert_0<\epsilon' \), ma dalla disuguaglianza \(\displaystyle a\Vert x\Vert_0\le\Vert x\Vert\le b\Vert x\Vert_0 \) segue in particolare per \(\displaystyle x_n-x_m \) che \(\displaystyle a\Vert x_n-x_m\Vert\le\Vert x_n-x_m\Vert_0\le b\Vert x_n-x_m\Vert \). Quindi la tesi segue dalla scelta \(\displaystyle \epsilon'=b\epsilon \). Allo stesso modo si può dimostrare che se una successione converge in uno spazio allora converge anche nell'altro.
\(\displaystyle \bullet \) In uno spazio di Banach, una serie assolutamente convergente è convergente.
Non sono molto bravo con le serie, ma ecco un tentativo. Sia \(\displaystyle x_n\in\mathcal{B} \) tale che \(\sum_n \Vert x_n\Vert<\infty \). Si ha \(\Vert\sum_n x_n\Vert\le \sum_n\Vert x_n\Vert \) per la disuguaglianza triangolare, quindi resta da dimostrare che la convergenza di \(\displaystyle \Vert x_1\Vert+\Vert x_2\Vert... \) implica la convergenza di \(\displaystyle x_1+x_2+... \); essendo \(\displaystyle \mathcal{B} \) completo per definizione, basta dimostrare che la successione delle somme parziali \(s_N=\sum^N x_n \) sia di Cauchy, ovvero \(\Vert\sum^N x_n-\sum^M x_n\Vert\to 0 \). Supponendo senza perdita di generalità \(\displaystyle K=N-M>0 \), \(\Vert\sum^N x_n-\sum^M x_n\Vert=\Vert\sum^{K}x_n\Vert\le\sum^{K}\Vert x_n\Vert \). Temo di aver già fatto un po' di confusione fin qui, ma ora arriva il colpo di grazia: posso dire che siccome il fatto che la serie converga assolutamente implichi per il criterio di Cauchy che \(\Vert x_n\Vert\to 0\) allora poiché \(\displaystyle K<\infty \) si ha sicuramente \(\sum^{K}\Vert x_n\Vert\to 0\)? Qualcosa mi dice proprio di no però...