Pagina 2 di 2

Re: Matrici come operatori lineari, c'entrano qui?

MessaggioInviato: 17/03/2024, 02:15
da gabriella127
Il contesto era la soluzione di un sistema di equazioni differenziali lineari a coefficienti costanti e esplicitamente di matrici e nient'altro , $A$ è una matrice e stop. Passaggi algebrici di prodotti di matrici con gli autovettori e la matrice diagonalizzata per arrivare alla soluzione (quando la matrice è diagonalizzablie). Niente di più. Non linearità non era proprio all'orizzonte.
Però può darsi che l'idea sia stata presa da qualche parte dove si parla anche sistemi non lineari, che qui però non c'entravano. Penso che sia come dici, l'idea in altri contesti, che non conosco, non è sbagliata, ma qui era fuori contesto, mi pare.

Ma poi è ripetuto pure per il limite, perché dire che poiché l'operatore $A$ è lineare il limite del prodotto $Ax(t)$ è il prodotto della matrice per il limite di $x(t)$? Sono le operazioni sui limiti, quando si fanno in analisi 1 (perché il livello del contesto del discorso non sia molto più in là) mica ci si va a intorcinare così.

Se ci fosse un operatore non lineare, lo chiamo $T$ per non confondermi con la matrice, la derivata fatta con la regole della derivazione di funzioni composte su:
$$z(t)= T(x(t)\tag {1}$$
e sarebbe diverso che nel caso lineare della matrice-operatore lineare, dove si avrebbe che è uguale a $A\dot x(t)$, credo volevi dire questo.
Ma vabbe', è la derivazione di funzioni composte, stiamo parlando, quando parliamo di operatori, di fatto di funzioni da $mathbb{R}^n \rightarrow \mathbb{R}^n $. C'è qualcosa che viene dalla teoria degli operatori in analisi funzionale che aggiunge qualcosa ai vari teoremi sulle regole di derivazione? A parte usare nomi diversi?

Ma insomma, va bene, ha senso, solo un po' fuori contesto e con riferimenti ridondanti a cose non necessarie.

Probabilmente sono nozioni prese da altri contesti dove hanno più senso.
Comunque poi ci ripenso, ora sono fusa. Anzi, scusate se ho parlato a vanvera ma sto crollando.

Re: Matrici come operatori lineari, c'entrano qui?

MessaggioInviato: 17/03/2024, 13:35
da megas_archon
gugo82 ha scritto:P.S.: La regola di Leibniz qui non c'entra. Piuttosto, serve la regola di derivazione delle funzioni composte, chain rule, o come cavolo volete chiamarla.
Se questo fosse vero, dovrebbe essere che interpretando \(Ax(t)\) come la composizione di funzioni \(\mathbb R \xrightarrow{\lambda t.x(t)}\mathbb R^n \xrightarrow{A}\mathbb R^n\), la sua derivata venga \(\nabla A(x(t)).\dot x(t) = Ax(t)\dot x(t)\).

Invece, quello che succede è che uno deve derivare in $dt$ ciascuna delle componenti del vettore \(Ax(t)\), ossia per ogni \(j=1,\dots n\), considerare \(\frac d{dt}\sum_{i=1}^n a_{ji}(t)x_i(t) = \sum_{i=1}^n \frac d{dt}(a_{ji}(t)x_i(t)) = \sum_{i=1}^n \dot a_{ji}(t)x_i(t) + a_{ji}(t)\dot x_i(t)\). Quest'ultima è vera per Leibniz, non per la regola della catena (e siccome $A$ è costante, la sua derivata è zero).

Quando componi matrice con matrice, le due cose alla fine coincidono (la composizione di funzioni è la struttura d'algebra di \(M_n(\mathbb R)\)); ma non mi sembra che la maniera di derivare l'applicazione di una matrice (eventualmente variabile) a un vettore segua dalla regola della catena, quanto piuttosto da Leibniz.

Re: Matrici come operatori lineari, c'entrano qui?

MessaggioInviato: 17/03/2024, 18:58
da gugo82
Da quando in qua $"D"A= A$ come operatore?


P.S.: Dico meglio... Scusate, ma il computer in questi giorni mi sta dando problemi e non riesco a scrivere post lunghi.
Scrivo da telefono, il che non mi entusiasma, ma meglio del PC.

Il punto è che anche uno studente di Analisi I sa che $"D"(a x(t)) = a dot(x)(t)$ e non $=ax(t) dot(x)(t)$ ($a$ reale e $x :I -> RR$ derivabile) e lo stesso vale in dimensioni maggiori.

Re: Matrici come operatori lineari, c'entrano qui?

MessaggioInviato: 17/03/2024, 20:33
da megas_archon
Certo, ed è quello che ho detto io, e segue da come si fa la derivata di un prodotto...

Re: Matrici come operatori lineari, c'entrano qui?

MessaggioInviato: 18/03/2024, 00:01
da gugo82
megas_archon ha scritto:Certo, ed è quello che ho detto io, e segue da come si fa la derivata di un prodotto...

Beh, in questo caso sì (perché siamo nel caso più semplice possibile, un operatore lineare a coefficienti costanti), ma in generale no: per i secondi membri "tipici" dei sistemi di EDO serve la derivazione della funzione composta, non la formula del prodotto.

Esempi:

  1. nel caso di un operatore lineare a coefficienti costanti, che praticamente è il prodotto contro una matrice numerica, tipo:
    \[
    \begin{split}
    T: C^1(\mathbb{R}; \mathbb{R}^2) &\to C^1 (\mathbb{R}; \mathbb{R}^2) \\
    x(t) &\mapsto M x(t)
    \end{split}
    \]
    con $M in \mathbb{M}(2,RR)$, la derivazione del prodotto e la derivazione della funzione composta danno lo stesso risultato:
    \[
    \begin{split}
    \frac{\text{d}}{\text{d} t} Tx(t) &= \underbrace{\dot{M}}_{=\mathbf{0}} x(t) + M \dot{x}(t)\\
    &= M \dot{x}(t)\\
    &\text{e} \\
    \frac{\text{d}}{\text{d} t} Tx(t) &= \left. \nabla_x (Mx) \right|_{x = x(t)}\ \dot{x} (t)\\
    &= M \dot{x}(t)
    \end{split}
    \]
    quindi siamo lì;

  2. per un operatore lineare (rispetto a $x$) a coefficienti non costanti, tipo:
    \[
    \begin{split}
    T: C^1(\mathbb{R}; \mathbb{R}^2) &\to C^1 (\mathbb{R}; \mathbb{R}^2) \\
    x(t) &\mapsto \underbrace{\begin{pmatrix} \cos t & \sin t \\ -\sin t & \cos t\end{pmatrix}}_{=:M(t)} x(t)
    \end{split}
    \]
    la regola del prodotto è ciò che ti serve, poiché il fatto che $T$ sia un operatore definito da un prodotto implica quasi tautologicamente che:
    \[
    \frac{\text{d}}{\text{d} t} Tx(t) = \dot{M}(t)\ x(t) + M(t)\ \dot{x}(t)\; ;
    \]
    ma questo non vale per tutti i possibili operatori lineari (vedi in fondo);

  3. per il tipo di operatori nonlineari che più frequentemente si trovano come secondo membro nei sistemi di EDO autonome classiche (e che sono quelli che mi sono venuti in mente mentre scrivevo il post precedente), cioè roba fatta così:
    \[
    \begin{split}
    T: C^1(\mathbb{R}; \mathbb{R}^2) &\to C^1 (\mathbb{R}; \mathbb{R}^2) \\
    x(t) &\mapsto f(x(t))
    \end{split}
    \]
    con $f: RR^2 -> RR$ abbastanza regolare (diciamo $C^1$), è abbastanza evidente che la regola di Leibniz la perdi e ti serve la derivazione della funzione composta:
    \[
    \frac{\text{d}}{\text{d} t} Tx(t) = \nabla f(x(t))\ \dot{x}(t)\; .
    \]

  4. ancora peggio se passi a EDO non autonome, il cui secondo membro è qualcosa del tipo:
    \[
    \begin{split}
    T: C^1(\mathbb{R}; \mathbb{R}^2) &\to C^1 (\mathbb{R}; \mathbb{R}^2) \\
    x(t) &\mapsto f(t, x(t))
    \end{split}
    \]
    con $f: RR^3 -> RR$ abbastanza regolare (diciamo $C^1$). Anche qui Leibniz te lo sei giocato e ti serve la derivazione della funzione composta:
    \[
    \frac{\text{d}}{\text{d} t} Tx(t) = f_t (t, x(t)) + \nabla_x f(t, x(t))\ \dot{x}(t)\; .
    \]

  5. ma in generale, se l'operatore al secondo membro $T$ è lineare ma è non definito da un prodotto (bensì da qualcosa di peggio), tipo:
    \[
    \begin{split}
    T: C^1(\mathbb{R}; \mathbb{R}^2) &\to C^1 (\mathbb{R}; \mathbb{R}^2) \\
    x(t) &\mapsto \int_0^t x(\tau )\ \text{d} \tau
    \end{split}
    \]
    o
    \[
    \begin{split}
    T: C^1(\mathbb{R}; \mathbb{R}^2) &\to C (\mathbb{R}; \mathbb{R}^2) \\
    x(t) &\mapsto \dot{x}(t)
    \end{split}
    \]
    quella roba lì non lo derivi mica con la regola del prodotto, e neanche con la regola della derivazione composta "pura e semplice" se per questo... Serve anche altro.

Re: Matrici come operatori lineari, c'entrano qui?

MessaggioInviato: 18/03/2024, 11:20
da megas_archon
la derivazione del prodotto e la derivazione della funzione composta danno lo stesso risultato:
Infatti. Sono d'accordo anche col resto, e infatti ho detto "mi aspetto che sia vero solo perché $A$ è costante".