thecrazy ha scritto:1) se ho 2 funzioni f e g che coincidono quasi ovunque e f è a variazione limitata in [a,b] nel senso classico del termine, cioè se il sup delle somme su i |f(xi+1)-f(xi)|al variare della partizione a=x0<x1<.....<xn=b è finito posso dire che anche g è a variazione limitata su [a,b] secondo questa definizione?
Ovviamente no.
Prendi \(f(x)=0\) in $[0,1]$, che è evidentissimamente a variazione limitata, e modificatela in modo da farla diventare la funzione di Dirichlet:
\[
d(x) := \begin{cases} 1 &\text{, se } x \in \mathbb{Q}\cap [0,1]\\ 0 &\text{, se } x\in [0,1]\setminus \mathbb{Q}\; ;\end{cases}
\]
evidentemente $d=f$ q.o. in $[0,1]$ e però col cavolo che $d$ è a variazione limitata in $[0,1]$!
thecrazy ha scritto:2)Sapete dirmi dove posso trovare online dei cenni sulla derivata distribuzionale, o magari definirmela voi ed enunciare (non è necessario dimostrare) le sue proprietà elementari.
Se vuoi puoi guardare direttamente il libro di Schwarz sulla Teoria delle Distribuzioni... Ma non so che ti serve di preciso.
La definizione è abbastanza semplice di per sé.
Chiamiamo $\mathbb{K} := C_c^\infty (\Omega)$ (qui \(\Omega \subseteq \mathbb{R}\) aperto non vuoto, per esempio)
spazio delle funzioni test. tale spazio è naturalmente dotato di una struttura vettoriale, in cui le operazioni di somma e prodotto per lo scalare sono definite puntualmente.
Introduciamo in $\mathbb{K}$ una nozione di convergenza:
Sia $(\phi_n) \subseteq \mathbb{K}$ una successione di funzioni test e $\phi \in \mathbb{K}$.
Se dice che $\phi_n\to \phi$ in $\mathbb{K}$ se e solo se:
- esiste un compatto \(K\subset \Omega\) che contiene tutti i supporti delle \(\phi_n\), i.e. \(\operatorname{supt} \phi_n \subseteq K\) per ogni $n\in \NN$;
- le derivate di qualsiasi ordine degli elementi di \((\phi_n)\) convergono uniformemente in $K$ alla corrispondente derivata di \(\phi\), cioè per ogni $h\in \NN$ si ha \(\phi_n^{(h)} \to \phi^{(h)}\) uniformemente in $K$.
Questa convergenza di funzioni test conserva le buone proprietà algebriche della convergenza usuale (ad esempio se $\phi_n\to \phi$ e \(\psi_n \to \psi\) in $\mathbb{K}$ allora \(\phi_n+\psi_n \to \phi+\psi\) in \(\mathbb{K}\), etc...).
A tal punto puoi introdurre il concetto di distribuzione.
Si chiama distribuzione un qualsiasi funzionale $T:\mathbb{K}\to \RR$ che sia lineare e continuo rispetto alla nozione di convergenza dei test.
Se conveniamo di denotare \(\langle T,\phi\rangle\) il valore che $T$ assume sul test $\phi$ (i.e., poniamo per definizione \(\langle T,\phi\rangle := T[\phi]\)), $T$ è una distribuzione se è tale che:
- \(\langle T, a\cdot \phi +b\cdot \psi \rangle=a\cdot \langle T, \phi\rangle +b\cdot \langle T, \psi\rangle\) per ogni $a,b\in \RR$ e \(\phi, \psi \in \mathbb{K}\);
- se \(\phi_n \to \phi\) in $\mathbb{K}$ allora \(\langle T ,\phi_n\rangle \to \langle T,\phi\rangle\) in $\RR$.
Nota che la linearità ti consente di dire che basta la continuità della $T$ lungo le sole successioni di test che tendono a zero, cioè ti basta che:
- se \(\phi_n \to 0\) in $\mathbb{K}$ allora \(\langle T ,\phi_n\rangle \to 0\) in $\RR$.
La derivata di una distribuzione è definita come segue:
Sia $T$ una distribuzione.
Il funzionale \(T^\prime : \mathbb{K}\to \mathbb{R}\) definito ponendo:
\[
\langle T^\prime ,\phi \rangle := \langle T, -\phi^\prime \rangle
\]
per ogni \(\phi \in \mathbb{K}\) è una distribuzione e si chiama derivata (distribuzionale) di $T$.
e si vede subito che la definizione è ben posta.
Quello che non si capisce è da dove sbuchi fuori tale definizione.
Tuttavia, non è difficile immaginarlo. Prendiamo \(\Omega =]a,b[\) e scegliamo una funzione $f\in C (]a,b[)$; a tale funzione è possibile associare una funzionale $F:\mathbb{K}\to \RR$ ponendo:
\[
\tag{*}
\langle F, \phi \rangle:= \int_a^b f(x)\phi (x)\ \text{d}x
\]
il quale si dimostra immediatamente essere una distribuzione. Se $f\in C^1(]a,b[)$, possiamo considerare anche il funzionale $G$ associato alla funzione $f^\prime$ mediante la (*), cioè:
\[
\langle G,\phi \rangle := \int_a^b f^\prime (x)\phi (x)\ \text{d} x\; ;
\]
poiché $f,\phi \in C^1(]a,b[)$ e poiché \(\operatorname{supt} \phi \subset ]a,b[\), possiamo integrare il secondo membro della precedente per parti, ottenendo:
\[
\langle G,\phi \rangle = \underbrace{\Big[ f(x)\phi (x)\Big]_a^b}_{=0} - \int_a^b f(x) \phi^\prime (x)\ \text{d} x = \int_a^b f(x)\Big( -\phi^\prime (x)\Big)\ \text{d} x = \langle F, -\phi^\prime \rangle\; ,
\]
da cui consegue che il funzionale $G$ associato $f^\prime$ coincide con la derivata (distribuzionale) $F^\prime$ del funzionale $F$ associato ad $f$.
E, d'altra parte, non è difficile intuire che se $g$ è una funzione continua tale che $F^\prime$ è associato a $g$ allora si ha $g=f^\prime$ ovunque in $]a,b[$.
Da ciò segue che se una distribuzione $T$ è associata ad una funzione $C^1$ mediante una relazione del tipo (*) (distribuzioni di tal fatta si chiamano anche
distribuzioni regolari), allora la sua derivata distribuzionale coincide con la distribuzione associata alla derivata della funzione.
Dalla definizione di derivata distribuzionale segue che
tutte le distribuzioni sono derivabili, e questo differenzia immediatamente la derivazione nel senso delle distribuzioni dalle derivate più o meno usuali.
Un'altra conseguenza della definizione è che
tutte le distribuzioni sono
indefinitamente derivabili, cioè ogni distribuzione ha derivate di ordine comunque elevato; in particolare la derivata distribuzionale $h$-esima di una distribuzione $T$ è la distribuzione $T^{(h)}$ definita ponendo:
\[
\langle T^{(h)}, \phi \rangle := \langle T, (-1)^h\phi^{(h)}\rangle
\]
per \(\phi \in \mathbb{K}\).
Ovviamente, gli operatori di derivazione sono lineari, nel senso che se $T,S$ sono distribuzioni allora la derivata della distribuzione $a\cdot T+b\cdot S$ è combinazione lineare delle derivate di $T$ ed $S$.
Ciò implica che per la derivata distribuzionale valgono tutte le regole algebriche della derivata usuale.
Un'altra cosa che continua a valere è il cosiddetto Teorema di Caratterizzazione delle Funzioni Costanti, che nel caso in esame recita così:
Se $T^\prime$ è il funzionale nullo, i.e. se \(\langle T^\prime ,\phi \rangle =0\) per ogni $\phi \in \mathbb{K}$, allora $T$ è una distribuzione costante, cioè esiste un $c\in \RR$ tale che \(\langle T,\phi \rangle = c\) per ogni \(\phi\).
In particolare ciò importa che se due distribuzioni hanno la stessa derivata, allora esse differiscono per una costante.
La costruzione fatta in dimensione $1$ si può ripetere in dimensione $N$ qualsiasi, avendo l'accortezza di definire le derivate parziali, etc...
Sono sempre stato, e mi ritengo ancora un dilettante. Cioè una persona che si diletta, che cerca sempre di provare piacere e di regalare il piacere agli altri, che scopre ogni volta quello che fa come se fosse la prima volta. (Freak Antoni)