Loi binomiale : --------------- P(X = k) = C^k_n p^k(1 - p)^{n - k} P(X = 2) = C^2_k p^2(1 - p)^{n - 2} Si deux événements A et B sont indépendants, alors P(A \cap B) = P(A)P(B) deux évènements sont incompatibles s'ils ne peuvent pas se produire en même temps. Deux évènements sont indépendants si la réalisation de l'un ne change pas la probabilité de réalisation de l'autre. D'ailleurs si des événements sont incompatibles alors ils ne sont pas indépendants (sauf si l'un d'entre eux est impossible). L'exemple du covid reste valable car le fait d'être vacciné change la probabilité de tomber malade donc les événements ne sont pas indépendants. Pour résumé : -indépendants P(M\cap V)=P(M)P(V) -incompatibles P(M\cap V)=0 P(a \le X \le b) = \int_a^b f_X(b) - F_X(a). Fonction de densité : P(a \le X \le b) = \int_a^b f_X(t)dt F_X est la primituve de f_X. Si \varphi est dérivable, structement croissante, on a : F_Y(y) = P[Y \le y] = P(\varphi(X) \le y) = P(X \le \varphi^{-1}(y)) = F_X(\varphi^{-1}(y)) f_Y(y) = \dfrac{f_X(\varphi^{-1}(y))}{\varphi'(\varphi^{-1}(y))} Si \varphi est dérivable, structement décroissante, on a : F_Y(y) = 1 - F_X(\varphi^{-1}(y)) f_Y(y) = -\dfrac{f_X(\varphi^{-1}(y))}{\varphi'(\varphi^{-1}(y))} Exemple : f_X(x) = \dfrac{e^{-1/2 x^2}}{\sqrt{2\pi}} est la densité d'une v.a X. Déterminer la loi de X^2. On pose Y = X^2 où \varphi(x) = x^2 Pour toute fonction g continue positive, on a E(g(Y)) = E(g(\varphi(x))) = \int^{+oo}_{-oo} g(\varphi(x)) f(x) dx = 1/\sqrt{2\pi} f_Y(y) = \dfrac{e^{-1/2 y}}{\sqrt{2\pi y}} E(aX + b) = aE(X) + b Si X \le Y alors E(X) \le E👍 Si X et Y sont indépendants, alors E(XY) = E(X)E(Y) Variance : V(X) = E[(X - E(X))^2] = E(X^2) - [E(X)]^2 V(X) \ge 0 V(aX + b) = a^2V(X) Si X et Y sont indépendants V(X + Y) = V(X) + V(Y) On appelle moment d’ordre k \ge 1 de X la quantité : m_k = E(X^k). Le moment d'une variable aléatoire représente la valeur attendue ou la moyenne de la distribution de cette variable. Il peut être utilisé pour décrire la position centrale de la distribution et pour estimer la probabilité d'obtenir une valeur particulière. Le moment d'ordre 1 (premier moment) est souvent appelé le moment moyen ou la moyenne. On appelle moment centré d’ordre k \ge 1 de X la quantité : \mu_k = [E(X − E(X))^k] Ecart type : \sigma_X =\sqrt{V(X)}. Inégalité de Markov : --------------------- P(X \ge a) \le 1/a E(X), a>0 Inégalé de Bienaymé Tchebychev P(|X - E(X)| \ge a) \le 1/a^2 V(X)