Una matrice di permutazione, a quanto pare, è "una matrice \( P \) per cui la moltiplicazione a sinistra è una permutazione delle righe di una matrice \( X \)".
Sia \( X \) ad esempio la matrice \( \begin{pmatrix}x_1&x_2& x_3\end{pmatrix}^\intercal \); una matrice di permutazione dovrebbe essere una matrice \( P \) di dimensioni \( 3\times 3 \) tale che \( PX \) sia la matrice \( \begin{pmatrix}x_2&x_3& x_1\end{pmatrix}^\intercal \): abbiamo che l'elemento \( x_1 \) è mandato nell'elemento \( (PX)_3 \), l'elemento \( x_2 \) in \( (PX)_1 \) e \( x_3 \) in \( (PX)_2 \).
Allora è la permutazione
\[
p\colon 1\mapsto 3\mapsto 2\mapsto 1
\] e si può scrivere \( x_i=(PX)_{p(i)} \), oppure \( (PX)_i=x_{p^{-1}(i)} \).
Domanda 0.
Vorrei chiarirmi il fatto che ogni volta che una matrice di permutazione agisce, mentre l'elemento \( i \)-esimo è mandato nella posizione \( p(i) \)-esima, gli indici sono permutati con l'inversa della permutazione associata. Perché succede questo?
Domanda 1 (secondaria).
Testo nascosto, fai click qui per vederlo
Wikipedia mi dice che una matrice di permutazione è una matrice quadrata che ha per ogni colonna e per ogni riga un'unica entrata accesa, uguale \( 1 \). Voglio provare l'uguaglianza delle due definizioni.
Ogni matrice \( P \) "di Wikipedia" ha una permutazione associata. Data \( P \), possiamo definire una permutazione \( p \) (tenendo a mente il caso \( X=\begin{pmatrix}x_1 & \dots & x_n\end{pmatrix}^\intercal\) per semplificare) come quella funzione che manda \( i \) in \( j \) tale che \( x_i=(PX)_j \). Allora dovrei provare semplicemente che, se \( P \) è costruita come da ipotesi, per ogni \( (PX)_j \) esiste un unico \( x_i \) tale che \( (PX)_j=x_j \): non so farlo. O meglio, intuisco che si debba un attimo giocare con la moltiplicazione tra matrici, magari per induzione. Non vorrei perderci del tempo, magari accetto qualche suggerimento, tanto che la cosa è così "si vede".
Ogni matrice \( P \) per a cui sia possibile associare una permutazione nel modo indicato in apertura è della forma espressa prima (binaria, un unico \( 1 \) per ogni riga e colonna). Evito. \( \square \)
Ogni matrice \( P \) "di Wikipedia" ha una permutazione associata. Data \( P \), possiamo definire una permutazione \( p \) (tenendo a mente il caso \( X=\begin{pmatrix}x_1 & \dots & x_n\end{pmatrix}^\intercal\) per semplificare) come quella funzione che manda \( i \) in \( j \) tale che \( x_i=(PX)_j \). Allora dovrei provare semplicemente che, se \( P \) è costruita come da ipotesi, per ogni \( (PX)_j \) esiste un unico \( x_i \) tale che \( (PX)_j=x_j \): non so farlo. O meglio, intuisco che si debba un attimo giocare con la moltiplicazione tra matrici, magari per induzione. Non vorrei perderci del tempo, magari accetto qualche suggerimento, tanto che la cosa è così "si vede".
Ogni matrice \( P \) per a cui sia possibile associare una permutazione nel modo indicato in apertura è della forma espressa prima (binaria, un unico \( 1 \) per ogni riga e colonna). Evito. \( \square \)
Domanda 2.
Data una permutazione \( p\colon\{1,\dots, n\}\to\{1,\dots, n\} \), voglio provare che ad essa è associata una matrice di permutazione. (Che ad ogni matrice di permutazione sia associata una permutazione è assodato dalla roba in spoiler ormai, sia per definizione o per via della "dimostrazione" precedente).
Data una permutazione "di indici" \( p \), dovrebbe essere possibile ristabilire la matrice \( P \) tale che \( PX \) abbia (penso sempre a \( X=\begin{pmatrix}x_1&\dots&x_n\end{pmatrix}^\intercal \) per semplicità, ma la cosa non cambia con una matrice \( n\times p \)) per oggetto \( i \)-esimo il numero \( (X)_{p^{-1}(i)} \) (oppure tale che sia \( x_i=(PX)_{p(i)} \), come detto prima). Qui la mia idea è di provare che esiste un insieme di matrici elementari \( e_{ij} \) tali che la loro somma sia proprio una matrice \( P \) cercata, domani la sviluppo, se riesco.
Intanto sono riuscito a formulare meglio il problema, domani se ho qualcosa in mente edito di nuovo.