Rappels de probabilités et de statistiques
Par Afshine Amidi et Shervine Amidi
Introduction aux probabilités à l'analyse combinatoire
Univers de probabilités L'ensemble de toutes les issues possibles d'une expérience aléatoire est appelé l'univers de probabilités d'une expérience aléatoire et est noté $S$.
Évènement Toute partie $E$ d'un univers est appelé un évènement. Ainsi, un évènement est un ensemble d'issues possibles d'une expérience aléatoire. Si l'issue de l'expérience aléatoire est contenue dans $E$, alors on dit que $E$ s'est produit.
Axiomes de probabilités Pour chaque évènement $E$, on note $P(E)$ la probabilité que l'évènement $E$ se produise.
Axiome 1 ― Toute probabilité est comprise entre 0 et 1 inclus, i.e.
Axiome 2 ― La probabilité qu'au moins un des évènements élémentaires de tout l'univers se produise est 1, i.e.
Axiome 3 ― Pour toute séquence d'évènements mutuellement exclusifs $E_1, ..., E_n$, on a :
Permutation Une permutation est un arrangement de $r$ objets parmi $n$ objets, dans un ordre donné. Le nombre de tels arrangements est donné par $P(n,r)$, défini par :
Combinaison Une combinaison est un arrangement de $r$ objets parmi $n$ objets, où l'ordre ne compte pas. Le nombre de tels arrangements est donné par $C(n,r)$, défini par :
Remarque : on note que pour $0\leqslant r\leqslant n$, on a $P(n,r)\geqslant C(n,r)$.
Probabilité conditionnelle
Théorème de Bayes Pour des évènements $A$ et $B$ tels que $P(B)>0$, on a :
Remarque : on a $P(A\cap B)=P(A)P(B|A)=P(A|B)P(B)$.
Partition Soit $\{A_i, i\in[\![1,n]\!]\}$ tel que pour tout $i$, $A_i\neq\varnothing$. On dit que $\{A_i\}$ est une partition si l'on a :
Remarque : pour tout évènement $B$ dans l'univers de probabilités, on a $\displaystyle P(B)=\sum_{i=1}^nP(B|A_i)P(A_i)$.
Formule étendue du théorème de Bayes Soit $\{A_i, i\in[\![1,n]\!]\}$ une partition de l'univers de probabilités. On a :
Indépendance Deux évènements $A$ et $B$ sont dits indépendants si et seulement si on a :
Variable aléatoires
Définitions
Variable aléatoire Une variable aléatoire, souvent notée $X$, est une fonction qui associe chaque élément de l'univers de probabilité à la droite des réels.
Fonction de répartition La fonction de répartition $F$ (en anglais Cumulative distribution function ou CDF), qui est croissante monotone et telle que $\underset{x\rightarrow-\infty}{\textrm{lim}}F(x)=0$ et $\underset{x\rightarrow+\infty}{\textrm{lim}}F(x)=1$, est définie de la manière suivante :
Remarque : on a $P(a < X\leqslant B)=F(b)-F(a)$.
Densité de probabilité La densité de probabilité $f$ (en anglais Probability density function ou PDF) est la probabilité que $X$ prenne des valeurs entre deux réalisations adjacentes d'une variable aléatoire.
Relations vérifiées par les PDF et CDF Voici les propriétés importantes à savoir dans les cas discret (D) et continu (C).
Cas | CDF $F$ | PDF $f$ | Propriétés du PDF |
(D) | $\displaystyle F(x)=\sum_{x_i\leqslant x}P(X=x_i)$ | $f(x_j)=P(X=x_j)$ | $\displaystyle0\leqslant f(x_j)\leqslant1\textrm{ et }\sum_{j}f(x_j)=1$ |
(C) | $\displaystyle F(x)=\int_{-\infty}^xf(y)dy$ | $f(x)=\displaystyle \frac{dF}{dx}$ | $\displaystyle f(x)\geqslant0\textrm{ et }\int_{-\infty}^{+\infty}f(x)dx=1$ |
Espérance et moments de la distribution Voici les expressions de l'espérance $E[X]$, l'espérance généralisée $E[g(X)]$, $k^{ième}$ moment $E[X^k]$ et fonction caractéristique $\psi(\omega)$ dans les cas discret et continu.
Cas | $E[X]$ | $E[g(X)]$ | $E[X^k]$ | $\psi(\omega)$ |
(D) | $\displaystyle \sum_{i=1}^nx_if(x_i)$ | $\displaystyle \sum_{i=1}^ng(x_i)f(x_i)$ | $\displaystyle \sum_{i=1}^nx_i^kf(x_i)$ | $\displaystyle\sum_{i=1}^nf(x_i)e^{i\omega x_i}$ |
(C) | $\displaystyle \int_{-\infty}^{+\infty}xf(x)dx$ | $\displaystyle \int_{-\infty}^{+\infty}g(x)f(x)dx$ | $\displaystyle \int_{-\infty}^{+\infty}x^kf(x)dx$ | $\displaystyle\int_{-\infty}^{+\infty}f(x)e^{i\omega x}dx$ |
Variance La variance d'une variable aléatoire, souvent notée Var$(X)$ ou $\sigma^2$, est une mesure de la dispersion de ses fonctions de distribution. Elle est déterminée de la manière suivante :
Écart-type L'écart-type d'une variable aléatoire, souvent notée $\sigma$, est une mesure de la dispersion de sa fonction de distribution, exprimée avec les même unités que la variable aléatoire. Il est déterminé de la manière suivante :
Transformation de variables aléatoires Soit $X, Y$ des variables liées par une certaine fonction. En notant $f_X$ et $f_Y$ les fonctions de distribution de $X$ et $Y$ respectivement, on a :
Loi d'intégration de Leibniz Soit $g$ une fonction de $x$ et potentiellement $c$, et $a, b$, les limites de l'intervalle qui peuvent dépendre de $c$. On a :
Distributions de probabilité
Inégalité de Tchebychev Soit $X$ une variable aléatoire de moyenne $\mu$. Pour $k,\sigma>0$, on a l'inégalité suivante :
Distributions importantes Voici les distributions importantes à savoir :
Type | Distribution | $\psi(\omega)$ | $E[X]$ | $\textrm{Var}(X)$ | |
(D) | $X\sim\mathcal{B}(n, p)$ | $\displaystyle P(X=x)=\displaystyle\binom{n}{x} p^xq^{n-x}$ | $(pe^{i\omega}+q)^n$ | $np$ | $npq$ |
(D) | $X\sim\textrm{Po}(\mu)$ | $\displaystyle P(X=x)=\frac{\mu^x}{x!}e^{-\mu}$ | $e^{\mu(e^{i\omega}-1)}$ | $\mu$ | $\mu$ |
(C) | $X\sim\mathcal{U}(a, b)$ | $\displaystyle f(x)=\frac{1}{b-a}$ | $\displaystyle\frac{e^{i\omega b}-e^{i\omega a}}{(b-a)i\omega}$ | $\displaystyle\frac{a+b}{2}$ | $\displaystyle\frac{(b-a)^2}{12}$ |
(C) | $X\sim\mathcal{N}(\mu, \sigma)$ | $\displaystyle f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}$ | $e^{i\omega\mu-\frac{1}{2}\omega^2\sigma^2}$ | $\mu$ | $\sigma^2$ |
(C) | $X\sim\textrm{Exp}(\lambda)$ | $\displaystyle f(x) = \lambda e^{-\lambda x}$ | $\displaystyle\frac{1}{1-\frac{i\omega}{\lambda}}$ | $\displaystyle\frac{1}{\lambda}$ | $\displaystyle\frac{1}{\lambda^2}$ |
Variables aléatoires conjointement distribuées
Densité marginale et fonction de répartition À partir de la densité de probabilité $f_{XY}$, on a :
Cas | Densité marginale | Fonction de répartition |
(D) | $\displaystyle f_X(x_i)=\sum_{j}f_{XY}(x_i,y_j)$ | $\displaystyle F_{XY}(x,y)=\sum_{x_i\leqslant x}\sum_{y_j\leqslant y}f_{XY}(x_i,y_j)$ |
(C) | $\displaystyle f_X(x)=\int_{-\infty}^{+\infty}f_{XY}(x,y)dy$ | $\displaystyle F_{XY}(x,y)=\int_{-\infty}^x\int_{-\infty}^yf_{XY}(x',y')dx'dy'$ |
Densité conditionnelle La densité conditionnelle de $X$ par rapport à $Y$, souvent notée $f_{X|Y}$, est définie de la manière suivante :
Indépendance Deux variables aléatoires $X$ et $Y$ sont dites indépendantes si l'on a :
Covariance On définit la covariance de deux variables aléatoires $X$ et $Y$, que l'on note $\sigma_{XY}^2$ ou plus souvent $\textrm{Cov}(X,Y)$, de la manière suivante :
Corrélation En notant $\sigma_X, \sigma_Y$ les écart-types de $X$ et $Y$, on définit la corrélation entre les variables aléatoires $X$ et $Y$, que l'on note $\rho_{XY}$, de la manière suivante :
Remarque 1 : on note que pour toute variable aléatoire $X$, $Y$, on a $\rho_{XY}\in[-1,1]$.
Remarque 2 : si X et Y sont indépendants, alors $\rho_{XY} = 0$.
Estimation des paramètres
Définitions
Échantillon aléatoire Un échantillon aléatoire est une collection de $n$ variables aléatoires $X_1, ..., X_n$ qui sont indépendantes et identiquement distribuées avec $X$.
Estimateur Un estimateur est une fonction des données qui est utilisée pour trouver la valeur d'un paramètre inconnu dans un modèle statistique.
Biais Le biais d'un estimateur $\hat{\theta}$ est défini comme étant la différence entre l'espérance de la distribution de $\hat{\theta}$ et de la valeur vraie, i.e. :
Remarque : un estimateur est dit non biaisé lorsque l'on a $E[\hat{\theta}]=\theta$.
Estimer la moyenne
Moyenne empirique La moyenne empirique d'un échantillon aléatoire est utilisée pour estimer la valeur vraie $\mu$ d'une distribution, est notée $\overline{X}$ et est définie de la manière suivante :
Remarque : la moyenne empirique est non-biaisée, i.e. $E[\overline{X}]=\mu$.
Théorème de la limite centrale Soit un échantillon aléatoire $X_1, ..., X_n$ suivant une distribution donnée de moyenne $\mu$ et de variance $\sigma^2$, alors on a :
Estimer la variance
Variance empirique La variance empirique d'un échantillon aléatoire est utilisée pour estimer la variance vraie $\sigma^2$ d'une distribution, est souvent notée $s^2$ ou $\hat{\sigma}^2$ et est définie de la manière suivante :
Remarque : la variance empirique est non-biaisée, i.e. $E[s^2]=\sigma^2$.
Relation du $\chi^2$ avec la variance empirique Soit $s^2$ la variance empirique d'un échantillon empirique. On a :