Loi des grands nombres : La loi des grands nombres est un concept statistique qui décrit le comportement des moyennes d'un grand nombre d'échantillons indépendants tirés d'une même population. • Loi faible des grands nombres : Si X1, X2, ..., Xn sont des variables aléatoires indépendantes et identiquement distribuées (iid) avec une moyenne μ et une variance finie σ2, alors la moyenne des échantillons (X̄) converge en probabilité vers la moyenne théorique μ lorsque le nombre d'échantillons augmente. X̄ → μ, quand n → ∞ • Loi forte des grands nombres : Dans des conditions plus strictes, la loi forte des grands nombres affirme que la moyenne des échantillons converge presque sûrement vers la moyenne théorique μ lorsque le nombre d'échantillons augmente. P(lim(n→∞) X̄ = μ) = 1 Ces lois des grands nombres sont utilisées pour justifier des méthodes d'estimation statistique et pour comprendre le comportement des moyennes d'échantillons lorsque la taille des échantillons augmente. Inégalités de Markov et de Bienaymé-Tchebichev : Les inégalités de Markov et de Bienaymé-Tchebichev sont des outils probabilistes généraux qui permettent de fixer des bornes sur les probabilités et les écarts. • Inégalité de Markov : Pour une variable aléatoire X positive et tout réel a > 0, cette inégalité énonce que la probabilité que X dépasse a est bornée par l'espérance de X divisée par a. P(X > a) ≤ E(X) / a • Inégalité de Bienaymé-Tchebichev : Cette inégalité relie la probabilité que la valeur d'une variable aléatoire X s'écarte de sa moyenne à l'écart-type de X. Pour tout réel k > 0, elle énonce que P(|X - E(X)| ≥ kσ) ≤ 1 / k2 Ces inégalités sont utilisées pour établir des bornes sur les probabilités et les écarts dans diverses situations probabilistes et statistiques.