Salve a tutti.
Stò facendo un programma con le distribuzioni continue.
Per la rappresentazione grafica di una distribuzione ho bisogno di sapere l'intervallo in cui la x avrà probabilità diversa da 0.
Mi spiego meglio con un esempio.
Data una distribuzione normale, la x avrà dominio tutto R,però avrà probabilità diversa da 0 solo in un intervallo(che nel caso di una Normale(0,0.5) sarà approssimativamente da -3,3).
Come faccio a calcolare questo intervallo.