da gugo82 » 28/07/2014, 15:16
Un po' di definizioni (che saranno presenti certamente anche sul tuo libro di testo...).
Derivabilità:
- Siano \(X\subseteq \mathbb{R}\), \(\mathbf{f}:X\to \mathbb{R}^M\) una funzione vettoriale di una variabile reale ed \(x_0\) un punto interno ad \(X\).
Si dice che \(\mathbf{f}\) è derivabile in \(x_0\) se e solo se esiste finito il limite vettoriale:
\[
\lim_{h\to 0} \frac{1}{h}\ \left( \mathbf{f}(x_0+h) - \mathbf{f}(x_0)\right)\; ,
\]
cioé se:
\[
\lim_{h\to 0} \frac{f_m(x_0+h)-f_m(x_0)}{h}\qquad \text{, per } m=1,2,\ldots ,M\; .
\]
il che equivale a richiedere che tutte le componenti scalari di \(\mathbf{f}\) siano derivabili in \(x_0\).
Il vettore che ha per componenti le derivate delle componenti di \(\mathbf{f}\) in \(x_0\), cioé:
\[
\left( f_1^\prime (x_0),\ldots ,f_M^\prime (x_0)\right)\; ,
\]
si chiama derivata di \(\mathbf{f}\) in \(x_0\) e si denota indifferentemente con uno dei simboli \(\mathbf{f}^\prime (x_0)\), \(\frac{\text{d} \mathbf{f}}{\text{d} x} (x_0)\), \(\mathbf{f}^{(1)} (x_0)\) oppure \(\dot{\mathbf{f}}(x_0)\).
- Siano \(X\subseteq \mathbb{R}^N\), \(f:X\to \mathbb{R}\) una funzione reale di \(N\) variabili reali ed \(\mathbf{x}_0\) un punto interno ad \(X\).
Si dice che \(f\) è derivabile in \(\mathbf{x}_0\) se essa è parzialmente derivabile rispetto a tutte le variabili da cui essa dipende, cioè se esistono finiti gli \(N\) limiti:
\[
\lim_{h\to 0} \frac{f(\mathbf{x}_0 +h\ \mathbf{e}^n) - f(\mathbf{x}_0)}{h}\qquad \text{, per } n=1,\ldots ,N\; .
\]
I valori di tali limiti si denotano indifferentemente coi simboli \(f_{x^n} (\mathbf{x}_0)\), \(\frac{\partial f}{\partial x^n}(\mathbf{x}_0)\) o \(D_{x^n} f(\mathbf{x}_0)\) e si chiamano derivate parziali di \(f\) in \(\mathbf{x}_0\); il vettore che ha per componenti le derivate parziali della \(f\) in \(\mathbf{x_0}\), cioè:
\[
\left( f_{x^1} (\mathbf{x}_0),\ldots ,f_{x^N} (\mathbf{x}_0)\right)\; ,
\]
si chiama gradiente di \(f\) in \(\mathbf{x}_0\) e si denota indifferentemente con uno dei simboli \(\nabla f(\mathbf{x}_0)\), \(\operatorname{grad} f(\mathbf{x}_0)\) oppure \(\operatorname{D}f(\mathbf{x}_0)\).
- Siano \(X\subseteq \mathbb{R}^N\), \(f:X\to \mathbb{R}^M\) una funzione vettoriale di \(N\) variabili reali ed \(\mathbf{x}_0\) un punto interno ad \(X\).
Si dice che \(\mathbf{f}\) è derivabile in \(\mathbf{x}_0\) se tutte le sue componenti scalari sono derivabili in \(\mathbf{x}_0\), i.e. se tutte le componenti sono parzialmente derivabili rispetto a tutte le variabili da cui esse dipendono, cioè se esistono finiti gli \(M\cdot N\) limiti:
\[
\lim_{h\to 0} \frac{f_m (\mathbf{x}_0 +h\ \mathbf{e}^n) - f_m (\mathbf{x}_0)}{h}\qquad \text{, per } m=1,\ldots ,M \text{ ed } n=1,\ldots ,N\; .
\]
La matrice \(M\cdot N\) che ha per entrate le derivate parziali delle componenti di \(\mathbf{f}\) in \(\mathbf{x}_0\), cioé:
\[
\left( \frac{\partial f_m}{\partial x^n} (\mathbf{x}_0)\right)_{m=1,\ldots, M,\ n=1,\ldots ,N}\; ,
\]
si chiama matrice jacobiana di \(\mathbf{f}\) in \(\mathbf{x}_0\)1 e si denota indifferentemente con uno dei simboli \(\operatorname{J}_\mathbf{f}(\mathbf{x}_0)\) oppure \(\frac{\partial (f_1,\ldots ,f_M)}{\partial (x^1,\ldots ,x^N)} (\mathbf{x}_0)\).
Differenziabilità:
- Siano \(X\subseteq \mathbb{R}\), \(\mathbf{f}:X\to \mathbb{R}^M\) una funzione vettoriale di una variabile reale ed \(x_0\) un punto interno ad \(X\).
Si dice che \(\mathbf{f}\) è differenziabile in \(x_0\) se e solo se tutte le componenti scalari di \(\mathbf{f}\) sono differenziabili in \(x_0\), cioé se esiste un vettore \(\mathbf{v}=(v_1,\ldots ,v_M)\in \mathbb{R}^M\) tale che:
\[
\lim_{x\to x_0} \frac{f_m (x)-f_m (x_0) - v_m\ (x-x_0)}{h} =0\qquad \text{, per } m=1,2,\ldots ,M\; .
\]
L'applicazione lineare di \(\mathbb{R}\) in \(\mathbb{R}^M\) individuata dal vettore \(\mathbf{v}\), cioé quella definita mediante l'assegnazione:
\[
h\mapsto h\ \mathbf{v}\; ,
\]
si chiama differenziale di \(\mathbf{f}\) in \(x_0\) e si denota col simbolo \(\text{d} (\mathbf{f},x_0)\); essa è caratterizzata dalla proprietà di migliore approssimazione lineare:
\[
\mathbf{f}(x)=\mathbf{f} (x_0) + \text{d}(\mathbf{f},x_0)(x-x_0) +\text{o}(x-x_0)\qquad \text{per } x\to x_0\; ,
\]
nel senso che se \(\phi:\mathbb{R}\to \mathbb{R}^M\) è un'altra applicazione lineare tale che:
\[
\mathbf{f}(x)=\mathbf{f} (x_0) + \phi(x-x_0) +\text{o}(x-x_0)\qquad \text{per } x\to x_0\; ,
\]
allora si ha necessariamente \(\phi = \text{d}(\mathbf{f},x_0)\).
- Siano \(X\subseteq \mathbb{R}^N\), \(f:X\to \mathbb{R}\) una funzione reale di \(N\) variabili reali ed \(\mathbf{x}_0\) un punto interno ad \(X\).
Si dice che \(f\) è differenziabile in \(\mathbf{x}_0\) se esiste un vettore \(\mathbf{u}=(u^1,\ldots ,u^N)\in \mathbb{R}^N\) tale che
\[
\lim_{\mathbf{x}\to \mathbf{x}_0} \frac{\left| f(\mathbf{x}) - \mathbf{f}(\mathbf{x}_0) - \langle \mathbf{x}-\mathbf{x}_0, \mathbf{u}\rangle \right|}{|\mathbf{x}-\mathbf{x}_0|}=0
\]
(qui \(\langle \cdot ,\cdot \rangle\) denota il prodotto scalare tra vettori).
L'applicazione lineare di \(\mathbb{R}^N\) in \(\mathbb{R}\) rappresentata dal vettore \(\mathbf{u}\), ossia quella definita dall'assegnazione:
\[
\mathbf{h}\mapsto \langle \mathbf{h},\mathbf{u}\rangle := \mathbf{h}\cdot \mathbf{u}^T\; ,
\]
si chiama differenziale di \(f\) in \(\mathbf{x}_0\) e si denota col simbolo \(\text{d} (f,\mathbf{x}_0)\); essa è caratterizzata dalla proprietà di migliore approssimazione lineare:
\[
f(\mathbf{x})= f(\mathbf{x}_0) + \text{d}(f,\mathbf{x}_0)(\mathbf{x}-\mathbf{x}_0) +\text{o}(|\mathbf{x}-\mathbf{x}_0|)\qquad \text{per } \mathbf{x}\to \mathbf{x}_0\; ,
\]
nel senso che se \(\phi:\mathbb{R}^N\to \mathbb{R}\) è un'altra applicazione lineare tale che:
\[
f(\mathbf{x})=f(\mathbf{x}_0) + \phi(\mathbf{x}-\mathbf{x}_0) +\text{o}(|\mathbf{x}-\mathbf{x}_0|)\qquad \text{per } \mathbf{x}\to \mathbf{x}_0\; ,
\]
allora si ha necessariamente \(\phi = \text{d}(f,\mathbf{x}_0)\).
- Siano \(X\subseteq \mathbb{R}^N\), \(f:X\to \mathbb{R}^M\) una funzione vettoriale di \(N\) variabili reali ed \(\mathbf{x}_0\) un punto interno ad \(X\).
Si dice che \(\mathbf{f}\) è differenziabile in \(\mathbf{x}_0\) se esiste una matrice \(\mathbf{U}\in \mathbb{M}_{M\cdot N}(\mathbb{R})\) tale che:
\[
\lim_{\mathbf{x}\to \mathbf{x}_0} \frac{\left| \mathbf{f} (\mathbf{x}) - \mathbf{f} (\mathbf{x}_0) - (\mathbf{x} - \mathbf{x}_0)\cdot \mathbf{U}^T\right|}{|\mathbf{x} - \mathbf{x}_0|} = 0
\]
(in cui \(\cdot\) è il prodotto riga-colonna).
L'applicazione lineare di \(\mathbb{R}^N\) in \(\mathbb{R}^M\) individuata dalla matrice \(\mathbf{U}\), cioé quella definita mediante l'assegnazione:
\[
\mathbf{h} \mapsto \mathbf{h}\cdot \mathbf{U}^T\; ,
\]
si chiama differenziale di \(\mathbf{f}\) in \(\mathbf{x}_0\) e si denota col simbolo \(\text{d} (\mathbf{f},\mathbf{x}_0)\); essa è caratterizzata dalla proprietà di migliore approssimazione lineare:
\[
\mathbf{f} (\mathbf{x})= \mathbf{f} (\mathbf{x}_0) + \text{d}(\mathbf{f},\mathbf{x}_0)(\mathbf{x}-\mathbf{x}_0) +\text{o}(|\mathbf{x}-\mathbf{x}_0|)\qquad \text{per } \mathbf{x}\to \mathbf{x}_0\; ,
\]
nel senso che se \(\phi:\mathbb{R}^N\to \mathbb{R}^M\) è un'altra applicazione lineare tale che:
\[
\mathbf{f} (\mathbf{x})=\mathbf{f} (\mathbf{x}_0) + \phi(\mathbf{x}-\mathbf{x}_0) +\text{o}(|\mathbf{x}-\mathbf{x}_0|)\qquad \text{per } \mathbf{x}\to \mathbf{x}_0\; ,
\]
allora si ha necessariamente \(\phi = \text{d}(\mathbf{f},\mathbf{x}_0)\).
Si dimostra poi molto facilmente che:
Se un'applicazione (di uno qualsiasi dei tre tipi che figurano nelle definizioni) è differenziabile in un punto interno al proprio dominio, allora essa è pure derivabile in tale punto ed, in più, a seconda dei casi, si ha:
- \(\mathbf{v}=\mathbf{f}^\prime (x_0)\);
- \(\mathbf{u}= \nabla f(\mathbf{x}_0)\);
- \(\mathbf{U}=\operatorname{J}_{\mathbf{f}} (\mathbf{x}_0)\).
Sono sempre stato, e mi ritengo ancora un dilettante. Cioè una persona che si diletta, che cerca sempre di provare piacere e di regalare il piacere agli altri, che scopre ogni volta quello che fa come se fosse la prima volta. (Freak Antoni)