Esatto.
Basta usare la concavità.
@And_And92: Insomma, la
disuguaglianza di Jensen per le funzioni concave funziona col verso opposto ( \( \displaystyle \geq \) al posto di \( \displaystyle \leq \) ).
***
Per chi non è pratico, si chiama disuguaglianza di Jensen la seguente disuguaglianza di convessità:
Siano \( \displaystyle \Omega \subseteq \mathbb{R}^N \) un insieme convesso \( \displaystyle f:\Omega \to \mathbb{R} \) una funzione convessa [risp. concava].
Comunque si fissino \( \displaystyle n \) punti distinti \( \displaystyle x_1,\ldots ,x_n\in \Omega \) ed \( \displaystyle n \) coefficienti \( \displaystyle \lambda_1,\ldots ,\lambda_n\in [0,1] \) tali che \( \displaystyle \sum_{i=1}^n \lambda_i=1 \) , si ha:
\( \displaystyle f(\sum_{i=1}^n \lambda_i x_i)\leq \sum_{i=1}^n \lambda_i f(x_i) \) [risp. \( \displaystyle f(\sum_{i=1}^n \lambda_i x_i)\geq \sum_{i=1}^n \lambda_i f(x_i) \) ].
(tale disuguaglianza si prova per induzione partendo dalla definizione di funzione convessa/concava).
Una versione più generale della disuguaglianza di Jensen è la seguente:
Siano \( \displaystyle (X,\mathfrak{M}, \mu) \) uno spazio di misura probabilistico (i.e. \( \displaystyle \mu (X)=1 \) ) ed \( \displaystyle f:\mathbb{R}\to \mathbb{R} \) una funzione convessa [risp. concava].
Comunque si fissi \( \displaystyle u\in L^1(\mu) \) risulta:
\( \displaystyle f\left( \int_X u\ \text{d} \mu\right) \leq \int_X f\circ u\ \text{d} \mu \) [risp. \( \displaystyle f\left( \int_X u\ \text{d} \mu\right) \geq \int_X f\circ u\ \text{d} \mu \) ]
Sono sempre stato, e mi ritengo ancora un dilettante. Cioè una persona che si diletta, che cerca sempre di provare piacere e di regalare il piacere agli altri, che scopre ogni volta quello che fa come se fosse la prima volta. (Freak Antoni)