Probabilités

Distribution de probabilité


loi Normale

La distribution Normale, dite aussi de Laplace-Gauss ou gaussienne, est centrale en statistique. Plusieurs raisons y concourent :

exemples

  1. Panoplie de distributions normales pour diverses valeurs de \mu et \sigma.

    diverses densités normales (en abscisses sont les valeurs prise par la variable aléatoire ; en ordonnées sont les valeurs de la densité de probabilité).

    Chaque ligne a même valeur de \mu : respectivement -1, 0 et 1. Chaque colonne a même valeur de \sigma : respectivement 0.5, 1 et 2. On perçoit immédiatement, par les variabilités inter lignes/colonnes du graphe, le rôle indépendant de chaque paramètre. \mu est le paramètre de translation, il décale à gauche ou à droite la distribution. \sigma est le paramètre d'échelle : la densité est plus ou moins serrée autour de l'espérance selon sa valeur.

remarques

  1. Assez généralement, toute variable aléatoire continue dont on peut admettre qu'elle est unimodale et pas trop dissymétrique peut être approchée par une distribution Normale.
  2. On appelle centrée une distribution normale d'espérance nulle (\mu = 0), ce terme s'applique en fait à toutes les distributions ayant une espérance nulle.
  3. On appelle réduite une distribution normale d'écart-type unité (\sigma = 1), ce terme s'applique en fait à toutes les distributions ayant une variance unité.
  4. Le support de la distribution normale est de moins l'infini à plus l'infini. On pourrait en déduire qu'elle n'est donc pas adaptée pour représenter une variable aléatoire strictement positive comme le poids d'un individu, où le nombre de feuilles d'un arbre. En fait cette objection logique ne tient pas à l'examen des probabilités ; par exemple si X~N(\mu=175,\sigma=10), la probabilité que X soit inférieur à 100 vaut 3.2 10^-14 !
  5. Une notation très déroutante a été retenue par WinBUGS est N(\mu,1/(\sigma^2)) car l'inverse de la variance s'interprète aisément comme la précision !

Probabilités