Messaggioda dissonance » 10/09/2008, 14:04

Ecco: è proprio questo il punto che non mi tornava, e che mi faceva incartare sulla separabilità di $x^n-1$.

Se infatti $x^n-1$ è separabile, allora le radici $n$-esime di 1 sono $n$. Tuttalpiù non appartengono al campo di riferimento. Quindi le matrici sono diagonalizzabili simultaneamente, non nel campo di riferimento ma in una estensione. E percò commutano il che mi pare ovvio (ma forse sbaglio?): se commutano come matrici in $K'$ ma hanno entrate solo su $K$, perché non dovrebbero commutare su $K$?

Però come notava Martino non è detto che $x^n-1$ sia separabile. Quindi può essere che sul nostro campo le radici $n$-esime di 1 non sono $n$, e non saranno $n$ su nessuna estensione. E allora che succede alla matrice di Vandermonde? Più in particolare: il gruppo delle radici n-esime è ciclico anche in questo caso? Se sì, allora possiamo prendere una radice primitiva $eta$ e costruire la matrice $"VdM"(eta^0, eta^1, ldots, eta^(n-1))=((1, 1, ldots, 1),(1, eta, ldots, eta^(n-1)), (vdots, vdots, vdots, vdots), (1, eta^(n-1), ldots, (eta^(n-1))^(n-1)))$ per intenderci. Che succede a questa matrice? Non è più invertibile?
dissonance
Moderatore
Moderatore
 
Messaggio: 463 di 27760
Iscritto il: 24/05/2008, 19:39
Località: Nomade

Messaggioda Martino » 10/09/2008, 14:25

Sì le matrici commutano qualunque sia $K$, perché possiamo sempre fare un'estensione di scalari e poi "tornare indietro", come diceva Thomas e come hai appena detto tu.

dissonance ha scritto:Però come notava Martino non è detto che $x^n-1$ sia separabile. Quindi può essere che sul nostro campo le radici $n$-esime di 1 non sono $n$, e non saranno $n$ su nessuna estensione. E allora che succede alla matrice di Vandermonde? Più in particolare: il gruppo delle radici n-esime è ciclico anche in questo caso? Se sì, allora possiamo prendere una radice primitiva $eta$ e costruire la matrice $"VdM"(eta^0, eta^1, ldots, eta^(n-1))=((1, 1, ldots, 1),(1, eta, ldots, eta^(n-1)), (vdots, vdots, vdots, vdots), (1, eta^(n-1), ldots, (eta^(n-1))^(n-1)))$ per intenderci. Che succede a questa matrice? Non è più invertibile?


Il gruppo delle radici $n$-esime è ciclico in quanto sottogruppo moltiplicativo finito di un campo. Il problema è che la matrice da te scritta è degenere perché $eta$ ha ordine inferiore a $n$, quindi (per dire) la seconda colonna prima o poi si ripeterà tale e quale.
Quindi se $x^n-1$ non è separabile ce la scordiamo la base bella di autovettori che abbiamo ottenuto con Vandermonde nel caso separabile :)
Le persone che le persone che le persone amano amano amano.
Avatar utente
Martino
Moderatore globale
Moderatore globale
 
Messaggio: 1499 di 13083
Iscritto il: 21/07/2007, 10:48
Località: Brasilia

Messaggioda dissonance » 11/09/2008, 01:40

Martino ha scritto:Per mostrare che $R cong K[X]//(X^n-1)$ possiamo definire il seguente omomorfismo:

(1) $K[X] to R$, $X to A(1)$.

Per arrivare al nostro isomorfismo è sufficiente mostrare che $A(1)^m=A(m)$ per ogni $m in NN$, infatti le matrici $A(0),...,A(n-1)$ formano una $k$-base di $R$ e $A(1)^n=A(n)=A(0)=1$, quindi la (1) diventa suriettiva con nucleo $(X^n-1)$ e possiamo applicare il teorema di isomorfismo.

Martino, non vorrei sembrarti deficiente ma qui purtroppo ho bisogno di chiarimenti. Sul fatto che quell'applicazione sia omomorfismo ci arrivo. Sul fatto che dobbiamo dimostrarne la suriettività, e che il nucleo sia $(X^n-1)$ pure.

Ora se ho capito bene le $A(i)$ sono matrici di $R$ con solo l'$i$-esima $a$ pari a 1 e tutte le altre pari a zero. Per un'idea intuitiva si tratta della matrice identica dopo uno slittamento in avanti delle colonne (o delle righe) di $i$ passi. Sempre se ho capito bene quindi, le $A(i)$ sono particolari matrici di permutazione: moltiplicate a destra di una matrice di $R$ ne fanno slittare le colonne in avanti di $i$ posti. (questa cosa è da formalizzare a modino, però prima voglio sapere se è corretta).
Poi: che $A(0), ldots, A(n-1)$ formino una $K$-base di $R$ mi convince. Quindi ogni matrice di $R$ è una cosa tipo $a_0A(0)+ldots+a_{n-1}A(n-1)$. Allora tu vuoi dimostrare che il polinomio $a_0+ldots+a_{n-1}X^(n-1)$ viene mandato proprio in quella matrice. Ovvero che $X^m\mapstoA(m)\ iff\ A(1)^m=A(m)$.
Ci sono?

Perché se le cose stanno così, pensavo di vedere le matrici $A(i)$ come associate a permutazioni di $"Sym"(n)$, precisamente $A(i)\mapstosigma_i$, dove $sigma_i(x)=(x+i)\ "mod"\ n$ (lo "shift" delle colonne). Infatti le matrici di permutazione, se non ricordo male, sono una copia di $"Sym"(n)$ nelle matrici $ntimesn$. Quindi avremmo che $A(i)A(j)\mapstosigma_isigma_j$ che è chiaramente $sigma_{i+j}$ e perciò tornando nelle matrici $A(i)A(j)=A(i+j)$.
Se questo discorso fosse corretto, potremmo semplificare la parte finale della dimostrazione (quella per induzione), mediante questa analogia matrici - permutazioni. Ma non sono sicuro.
dissonance
Moderatore
Moderatore
 
Messaggio: 466 di 27760
Iscritto il: 24/05/2008, 19:39
Località: Nomade

Messaggioda Martino » 11/09/2008, 10:13

dissonance ha scritto:[...]
Ci sono?


Certo.

Perché se le cose stanno così, pensavo di vedere le matrici $A(i)$ come associate a permutazioni di $"Sym"(n)$, precisamente $A(i)\mapstosigma_i$, dove $sigma_i(x)=(x+i)\ "mod"\ n$ (lo "shift" delle colonne). Infatti le matrici di permutazione, se non ricordo male, sono una copia di $"Sym"(n)$ nelle matrici $ntimesn$. Quindi avremmo che $A(i)A(j)\mapstosigma_isigma_j$ che è chiaramente $sigma_{i+j}$ e perciò tornando nelle matrici $A(i)A(j)=A(i+j)$.
Se questo discorso fosse corretto, potremmo semplificare la parte finale della dimostrazione (quella per induzione), mediante questa analogia matrici - permutazioni. Ma non sono sicuro.


Sì, sono convinto che la tua idea funzioni! In pratica tu vorresti dimostrare che la funzione $(ZZ//nZZ,+) to (R,*)$, $i to A(i)$ è un omomorfismo di monoidi, giusto?
Questo si potrebbe vedere usando che $A(1)^i=A(i)$ perché $A(i+j)=A(1)^{i+j}=A(1)^i A(1)^j = A(i)A(j)$.
Però la tua interpretazione con le permutazioni è interessante, ci penserò!

Un'altra cosa: pensando a tutto il problema mi sono già scontrato con le permutazioni: mi interessava calcolare il determinante di una $A in R$, e per fare questo mi sono chiesto cosa rappresenta, data una $sigma in S_n$, la quantità $i-sigma(i)$ mod $n$, o meglio cosa possiamo dire della funzione

${1,...,n} to {1,...,n}$
$i to i-sigma(i)$ $mod(n)$, ovvero $i to k(i,sigma(i))$

Inizialmente pensavo che fosse o costante o una permutazione (cosicché il determinante sarebbe stato del tipo $a_0^n+...+a_{n-1}^n-na_0...a_{n-1}$, cosa vera probabilmente solo nel caso $n=3$), ma poi mi sono dovuto scontrare con la dura realtà...

Secondo voi come si può calcolare il determinante di $A in R$ ?
Le persone che le persone che le persone amano amano amano.
Avatar utente
Martino
Moderatore globale
Moderatore globale
 
Messaggio: 1502 di 13083
Iscritto il: 21/07/2007, 10:48
Località: Brasilia

Messaggioda dissonance » 11/09/2008, 12:11

Martino ha scritto:Secondo voi come si può calcolare il determinante di $A in R$ ?

Mah, se il campo contiene tutte le radici $n$-esime di 1 basta fare il prodotto degli autovalori, no? Del resto quando ho citato le dispense di Cailotto era perché lui (pag.105) parla di un metodo che chiama "di Brioschi" per il determinante di queste matrici nel caso complesso. Riassumo:

Se $A=a_0A(0)+ldots+a_{n-1}A(n-1)$ allora presa la matrice di Vandermonde $V="VdM"(eta^0, eta^1, ldots, eta^(n-1))$ ($eta$ radice primitiva $n$-esima di 1) risulta che $AV=V^Hdiag(theta_0, ldots, theta_{n-1})$ dove $theta_i=sum_{j=0}^(n-1)a_{i, j}eta^(ij)$. E quindi $det\ A=prod_{k=0}^ntheta_k$. A parole povere: $A$ è diagonalizzabile, ne conosciamo gli autovalori e il determinante lo calcoliamo come prodotto degli stessi. La cosa mi pare funzioni anche se non siamo nel campo complesso, a condizione che $x^n-1$ sia separabile. In quel caso il determinante ce lo andremo a calcolare in una opportuna estensione.

Ma mi pare tutto troppo semplice. Dov'è l'inghippo? :D
_____________________________________________

Per la storia delle permutazioni, non capisco perché parli di monoidi e non di gruppi...
Formalizzo un po' quello che volevo fare, più che altro per "capire" meglio le matrici di $R$:
definiamo le mat. di permutazione come: $\forall\sigma\in "Sym"(n), Pi(sigma):=[I_{sigma(1)}, ldots, I_{sigma(n)}]$, dove $I_{j}$ è la $j$-esima colonna della matrice identica. Queste matrici sono sempre invertibili: questo ci porta a un sottogruppo del $"GL"_n(K)$ (diciamo $"Perm"(n, K)$) isomorfo a $"Sym"(n)$. Infatti $Pi(sigma)Pi(tau)=Pi(sigma\circtau)$.
La dimostrazione formale di questo risultato credo sia della stessa natura della tua dimostrazione di $A(1)^m=A(m)$.

Io pensavo però a qualcosa di più sportivo: se $A\inM_n(K)$, allora $APi(sigma)=A[I_{sigma(1)}, ldots, I_{sigma(n)}]=[A_{sigma(1)}, ldots, A_{sigma(n)}]$. Moltiplicando a destra $Pi(sigma)$ permuta le colonne di $A$. Perciò $Pi(sigma)Pi(tau)=Pi(sigma)[I_{tau(1)}, ldots, I_{tau(n)}]=[Pi(sigma)_{tau(1)}, ldots, Pi(sigma)_{tau(n)}]$. Se la $i$-esima colonna di $Pi(sigma)$ è $I_{sigma(i)}$, la $tau(i)$-esima colonna si $Pi(sigma)$ è $I_{sigma(tau(i))}$. Perciò $Pi(sigma)Pi(tau)=Pi(sigma\circtau)$.(*)

Allora la trovata era: costruire una copia di $(ZZ_n, +)$ in $"Sym"(n)$ mediante $[k]\mapstosigma_k$ e $sigma_k(x)=(x+k\ "mod"\ n)$ ("shift" avanti di k posti). Mi pare che questo sia un isomorfismo di gruppi, o mi sbaglio? Se non sbaglio, allora abbiamo costruito un sottogruppo del $"Sym"(n)$ che corrisponde esattamente ad una base (la famosa $(A(0), ldots, A(n-1))=(Pi(id), Pi(sigma_1), ldots, Pi(sigma_{n-1}))$) della $K$-algebra $R$.

Che vantaggi ci sarebbero facendo così? Pensavo di rendere più trasparenti le varie dimostrazioni delle proprietà di $R$. Infatti potremmo costruire una $K$-algebra (non commutativa) di dimensione finita facendola generare (come spazio vettoriale) dalle matrici di permutazione. Con il risultato (*) non è difficile far vedere la chiusura rispetto al prodotto e quindi la well-posedness di questa costruzione. A questo punto il nostro misterioso oggetto $R$ diventa una più semplice sotto-algebra, una cui base è isomorfa (come gruppo moltiplicativo) ad un gruppo abeliano. E perciò, se commutano gli elementi di una base, commutano tutti gli elementi di $R$ (a prescindere dalla diagonalizzabilità). E così anche per l'isomorfismo $(K[x])//(x^n-1)~=R$, visto che a questo punto il grosso della dimostrazione è già stato fatto con il punto (*). (Tra l'altro questo sarebbe un isomorfismo di algebre oltre che di anelli...ma allora $(K[x])//(x^n-1)$ ha una base isomorfa a $ZZ_n$? Non ci capisco molto di queste cose!)
E' tutto un po' lungo ma ho cercato di essere più chiaro possibile.
dissonance
Moderatore
Moderatore
 
Messaggio: 467 di 27760
Iscritto il: 24/05/2008, 19:39
Località: Nomade

Messaggioda Martino » 11/09/2008, 12:42

dissonance ha scritto:[...]
Ma mi pare tutto troppo semplice. Dov'è l'inghippo? :D

Ma niente, avevo osservato anch'io che il determinante aveva quella forma, ma volevo scriverlo in modo più umano :D

Per la storia delle permutazioni, non capisco perché parli di monoidi e non di gruppi...

Beh io avevo definito $phi: (ZZ//nZZ,+) to (R,*)$, $i to A(i)$, e questa è una funzione che rispetta le operazioni, ma se lo chiamassi omomorfismo di gruppi starei facendo finta che $(R,*)$ è un gruppo. D'altra parte l'immagine di $phi$, cioè l'insieme ${A(1),...,A(n)}$, è effettivamente un gruppo con la $*$, quindi possiamo dire che la $phi$ induce un isomorfismo di gruppi $(ZZ//nZZ,+) cong {A(1),...,A(n)}$.
Tra parentesi, questo risponde immediatamente alla tua domanda

ma allora $K[X]//(X^n-1)$ ha una base isomorfa a $ZZ_n$?

Certo, in virtù di $(ZZ//nZZ,+) cong ({1,X,...,X^{n-1}},*)$, dove $1,X,...,X^{n-1}$ sono pensati dentro $K[X]//(X^n-1)$. Naturalmente questo isomorfismo si limita ad essere di gruppi.

-----

Allora tu hai costruito un'immersione di $ZZ//nZZ$ in $S_n=Sym(n)$ tramite la regola $k to sigma_k$, ove $sigma_k(x)=x+k$. E allora $A(i)$ usando le tue notazioni diventa $Pi(sigma_i)$. Capisco.

Pensavo di rendere più trasparenti le varie dimostrazioni delle proprietà di $R$. Infatti potremmo costruire una $K$-algebra (non commutativa) di dimensione finita facendola generare (come spazio vettoriale) dalle matrici di permutazione. Con il risultato (*) non è difficile far vedere la chiusura rispetto al prodotto e quindi la well-posedness di questa costruzione. A questo punto il nostro misterioso oggetto $R$ diventa una più semplice sotto-algebra, una cui base è isomorfa (come gruppo moltiplicativo) ad un gruppo abeliano. E perciò, se commutano gli elementi di una base, commutano tutti gli elementi di $R$ (a prescindere dalla diagonalizzabilità). E così anche per l'isomorfismo $K[x]//(x^n-1)~=R$, visto che a questo punto il grosso della dimostrazione è già stato fatto con il punto (*).


Sono d'accordo.
Le persone che le persone che le persone amano amano amano.
Avatar utente
Martino
Moderatore globale
Moderatore globale
 
Messaggio: 1504 di 13083
Iscritto il: 21/07/2007, 10:48
Località: Brasilia

Precedente

Torna a Algebra, logica, teoria dei numeri e matematica discreta

Chi c’è in linea

Visitano il forum: Google Adsense [Bot] e 1 ospite