Retour aux Cours

Mathématique.fr

0% terminé
0/0 Steps
  1. Combinatoire et dénombrement
    4 Chapitres
    |
    1 Quiz
  2. Manipulation des vecteurs, des droites et des plans de l’espace
    4 Chapitres
    |
    1 Quiz
  3. Le produit scalaire
    3 Chapitres
  4. Représentation paramétrique et équation cartésienne
    3 Chapitres
  5. Les suites
    4 Chapitres
  6. Les limites de fonctions
    6 Chapitres
  7. La dérivation
    3 Chapitres
  8. La continuité
    3 Chapitres
  9. La fonction logarithme
    3 Chapitres
  10. Les fonctions trigonométriques
    5 Chapitres
  11. Les primitives
    4 Chapitres
  12. Les équations différentielles
    3 Chapitres
  13. Le calcul intégral
    4 Chapitres
  14. La loi binomiale
    3 Chapitres
  15. Le produit scalaire
    4 Chapitres
  16. Les variables aléatoires
    3 Chapitres
  17. La loi des grands nombres
    3 Chapitres
  18. Notion de liste
    3 Chapitres
Leçon 17, Chapitre 2
En cours

Loi faible et loi forte des grands nombres

Progression du Leçon
0% terminé
Il existe deux versions principales de la loi des grands nombres :
    • Loi faible des grands nombres : Cette version affirme que la moyenne empirique d’un échantillon tend vers l’espérance avec une grande probabilité lorsque la taille de l’échantillon devient grande. Formellement, pour tout \( \epsilon > 0 \) :
\[ P\left( \left| \frac{X_1 + X_2 + \dots + X_n}{n} – \mu \right| < \epsilon \right) \to 1 \quad \text{quand} \quad n \to \infty \]
    • Loi forte des grands nombres : Cette version est plus forte que la précédente et garantit que la moyenne empirique converge presque sûrement vers l’espérance, c’est-à-dire que la probabilité que la moyenne empirique s’écarte de l’espérance finit par être nulle :
\[ P\left( \lim_{n \to \infty} \frac{X_1 + X_2 + \dots + X_n}{n} = \mu \right) = 1 \] Ces deux versions de la loi des grands nombres expriment l’idée que plus la taille de l’échantillon est grande, plus la moyenne des observations se rapproche de la moyenne théorique. Cependant, la loi forte assure une convergence beaucoup plus robuste.