Glossaire

Date de publication

18 février 2026

Modifié

24 mars 2026

Résumé

Glossaire français-anglais des termes de probabilités et statistiques utilisés dans ce cours.

Probabilités

Variable aléatoire (random variable)
Fonction qui associe à chaque issue d’une expérience aléatoire une valeur numérique.
Densité de probabilité (probability density function)
Fonction \(f\) positive d’intégrale 1 décrivant la répartition de probabilité d’une variable aléatoire continue.
Fonction de répartition (cumulative distribution function)
Fonction \(F(x) = P(X \leq x)\) donnant la probabilité qu’une variable aléatoire soit inférieure ou égale à \(x\).
Espérance (expectation / expected value)
Valeur moyenne théorique d’une variable aléatoire, notée \(E(X)\).
Variance (variance)
Mesure de la dispersion d’une variable aléatoire autour de son espérance, notée \(V(X) = E\bigl[(X - E(X))^2\bigr]\).
Écart-type (standard deviation)
Racine carrée de la variance, notée \(\sigma(X) = \sqrt{V(X)}\).
Loi de probabilité (probability distribution)
Description complète du comportement aléatoire d’une variable, spécifiant les probabilités de chaque événement.
Fonction indicatrice (indicator function)
Fonction valant 1 si la condition est vérifiée et 0 sinon, notée \(\mathbf{1}_A\).

Lois classiques

Loi uniforme (uniform distribution)
Loi \(\mathcal{U}([a,b])\) où toutes les valeurs d’un intervalle sont équiprobables.
Loi exponentielle (exponential distribution)
Loi \(\mathcal{E}(\lambda)\) modélisant des durées d’attente, caractérisée par la propriété d’absence de mémoire.
Loi normale / loi de Gauss (normal / Gaussian distribution)
Loi \(\mathcal{N}(m, \sigma^2)\) à densité en cloche, centrale en probabilités grâce au théorème central limite.
Loi du khi-deux (chi-squared distribution)
Loi \(\chi^2_n\) obtenue comme somme de \(n\) carrés de variables normales centrées réduites indépendantes.
Loi de Student (Student’s t-distribution)
Loi utilisée en inférence lorsque la variance est estimée, définie comme le quotient d’une normale par la racine d’un khi-deux.
Loi de Poisson (Poisson distribution)
Loi discrète \(\mathcal{P}(\lambda)\) modélisant le nombre d’événements rares sur un intervalle donné.
Loi binomiale (binomial distribution)
Loi \(\mathcal{B}(n, p)\) comptant le nombre de succès dans \(n\) épreuves de Bernoulli indépendantes.
Loi de Bernoulli (Bernoulli distribution)
Loi \(\mathcal{B}(p)\) d’une variable valant 1 (succès) avec probabilité \(p\) et 0 (échec) avec probabilité \(1-p\).
Loi géométrique (geometric distribution)
Loi discrète modélisant le rang du premier succès dans une suite d’épreuves de Bernoulli indépendantes.
Loi log-normale (log-normal distribution)
Loi d’une variable \(X\) telle que \(\ln X\) suit une loi normale.

Variables aléatoires conjointes

Distribution conjointe (joint distribution)
Loi du couple \((X, Y)\) décrivant le comportement simultané de deux variables aléatoires.
Distribution marginale (marginal distribution)
Loi de chaque variable prise individuellement, obtenue par intégration (ou sommation) de la loi conjointe.
Distribution conditionnelle (conditional distribution)
Loi d’une variable sachant la valeur prise par une autre.
Covariance (covariance)
Mesure de la dépendance linéaire entre deux variables, \(\text{Cov}(X,Y) = E\bigl[(X-E(X))(Y-E(Y))\bigr]\).
Corrélation (correlation)
Covariance normalisée par les écarts-types, \(\rho(X,Y) = \text{Cov}(X,Y) / (\sigma_X \sigma_Y)\), comprise entre \(-1\) et \(1\).
Indépendance (independence)
Deux variables sont indépendantes si leur loi conjointe est le produit de leurs lois marginales.
Convolution (convolution)
Opération donnant la densité de la somme de deux variables indépendantes par intégrale du produit des densités.

Convergence

Convergence en probabilité (convergence in probability)
\(X_n \xrightarrow{P} X\) si pour tout \(\varepsilon > 0\), \(P(|X_n - X| > \varepsilon) \to 0\).
Convergence en loi (convergence in distribution / in law)
\(X_n \xrightarrow{\mathcal{L}} X\) si les fonctions de répartition convergent en tout point de continuité de la limite.
Convergence en moyenne quadratique (L² convergence / mean square convergence)
\(X_n \xrightarrow{L^2} X\) si \(E\bigl[(X_n - X)^2\bigr] \to 0\).
Convergence presque sûre (almost sure convergence)
\(X_n \xrightarrow{p.s.} X\) si \(P\bigl(\lim_{n\to\infty} X_n = X\bigr) = 1\).
Loi des grands nombres (law of large numbers)
Théorème affirmant que la moyenne empirique converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini.
Théorème central limite / TCL (central limit theorem / CLT)
Théorème affirmant que la moyenne empirique centrée et réduite converge en loi vers une loi normale \(\mathcal{N}(0,1)\).

Statistiques

Statistique (statistic)
Fonction mesurable de l’échantillon, ne dépendant d’aucun paramètre inconnu.
Échantillon (sample)
Suite \((X_1, \ldots, X_n)\) de variables aléatoires i.i.d. représentant les observations.
Loi parente (parent distribution)
Loi commune des variables de l’échantillon, dont on cherche à estimer les paramètres.
Estimateur (estimator)
Statistique utilisée pour approcher un paramètre inconnu de la loi parente.
Biais (bias)
Différence entre l’espérance d’un estimateur et la vraie valeur du paramètre : \(B(\hat\theta) = E(\hat\theta) - \theta\).
Sans biais (unbiased)
Un estimateur est sans biais si son espérance est égale au paramètre estimé.
Convergent (consistent)
Un estimateur est convergent s’il converge en probabilité vers le paramètre estimé quand \(n \to \infty\).
Efficace (efficient)
Un estimateur sans biais est efficace s’il atteint la borne inférieure de Cramér-Rao.
Vraisemblance (likelihood)
Fonction \(L(\theta) = \prod_{i=1}^n f(x_i; \theta)\) mesurant la plausibilité des observations pour une valeur du paramètre.
Maximum de vraisemblance / EMV (maximum likelihood estimator / MLE)
Estimateur obtenu en maximisant la fonction de vraisemblance par rapport au paramètre.
Méthode des moments / EMM (method of moments estimator)
Estimateur obtenu en égalant les moments théoriques aux moments empiriques.
Intervalle de confiance (confidence interval)
Intervalle aléatoire contenant le paramètre inconnu avec une probabilité fixée (le niveau de confiance).
Niveau de confiance (confidence level)
Probabilité \(1 - \alpha\) que l’intervalle de confiance contienne la vraie valeur du paramètre.
Effectif (frequency count)
Nombre d’individus possédant une même modalité dans un échantillon.
Fréquence (relative frequency)
Proportion d’individus possédant une même modalité, égale à l’effectif divisé par la taille de l’échantillon.
Tableau de contingence (contingency table)
Tableau croisant les modalités de deux variables et présentant les effectifs conjoints.
Fluctuation d’échantillonnage (sampling fluctuation)
Variabilité naturelle d’une statistique d’un échantillon à l’autre, due au caractère aléatoire du tirage.
Information de Fisher (Fisher information)
Quantité mesurant l’information qu’un échantillon apporte sur un paramètre, intervenant dans la borne de Cramér-Rao.