Siano $X$ e $Y$ (non vuoti) e $f: X \rightarrow Y$ un'applicazione. Si dimostri che $f$ è iniettiva se e solo se per ogni $T \subseteq X$ si ha che $f(X \setminus T) \subseteq Y \setminus f(T)$.
che è tratto dalle dispense consigliatemi nella discussione apposita. Ho provato a svolgere la dimostrazione ma sono giunto ad un punto morto. Ecco il mio tentativo: per contrapposizione si hanno le seguenti proposizioni da dimostrare:
- $\exists T \subseteq X: \not (f(X \setminus T) \subseteq Y \setminus f(T)) \Rightarrow f$ non iniettiva;
- $f$ non iniettiva $ \Rightarrow \exists T \subseteq X: \not (f(X \setminus T) \subseteq Y \setminus f(T)) $
Ho iniziato con la prima proposizione: se $f(X \setminus T)$ non è un sottoinsieme di $Y \setminus f(T)$ allora esiste un elemento di $f(X \setminus T)$ che non appartiene a $f(T)$. Consideriamo ora la restrizione $f_{|T}$: se $f_{|T}$ è biunivoca allora $f$ non può essere iniettiva, inoltre se $f_{|T}$ è suriettiva allora o $f_{|T}$ è biunivoca oppure $f_{|T}$ non è iniettiva da cui segue che $f$ non è iniettiva. Se $f_{|T}$ è iniettiva ( e non suriettiva) allora deve essere che $|T| \leq |f(T)|$: per $|T| = |f(T)|$ valgono le considerazioni già fatte, altrimenti...come continuo?