Qu'est-ce que le théorème central des limites (CLT)?

Le Théorème Central Limite (CLT) est un concept statistique qui stipule que la distribution moyenne de l'échantillon d'une variable aléatoire supposera une distribution presque normale ou normale si la taille de l'échantillon est suffisamment grande. En termes simples, le théorème déclare que la distribution d'échantillonnage de la moyenne Moyenne Moyenne est un concept essentiel en mathématiques et en statistique. En général, une moyenne fait référence à la moyenne ou à la valeur la plus courante dans un ensemble d'approches d'une distribution normale à mesure que la taille de l'échantillon augmente, quelle que soit la forme de la distribution originale de la population.

Diagramme du théorème central limite (CLT) montrant la convergence vers la distribution normale

Au fur et à mesure que l'utilisateur augmente le nombre d'échantillons à 30, 40, 50, etc., le graphique des moyens d'échantillonnage se déplacera vers une distribution normale. La taille de l'échantillon doit être de 30 ou plus pour que le théorème de la limite centrale soit valable.

L'une des composantes les plus importantes du théorème est que la moyenne de l'échantillon sera la moyenne de l'ensemble de la population. Si vous calculez la moyenne de plusieurs échantillons de la population, les additionnez et trouvez leur moyenne, le résultat sera l'estimation de la moyenne de la population.

Il en va de même lors de l'utilisation de l'écart type Ecart type D'un point de vue statistique, l'écart type d'un ensemble de données est une mesure de l'ampleur des écarts entre les valeurs des observations contenues. Si vous calculez l'écart type de tous les échantillons de la population, les additionnez et trouvez la moyenne, le résultat sera l'écart type de l'ensemble de la population.

Comment fonctionne le théorème de la limite centrale?

Le théorème central limite constitue la base de la distribution de probabilité. Il permet de comprendre facilement comment les estimations de population se comportent lorsqu'elles sont soumises à un échantillonnage répété Erreur de type II Dans le test d'hypothèse statistique, une erreur de type II est une situation dans laquelle un test d'hypothèse ne parvient pas à rejeter l'hypothèse nulle qui est fausse. En d'autre . Lorsqu'il est tracé sur un graphique, le théorème montre la forme de la distribution formée au moyen d'échantillons de population répétés.

Au fur et à mesure que la taille des échantillons augmente, la distribution des moyennes des échantillons répétés a tendance à se normaliser et à ressembler à une distribution normale. Le résultat reste le même quelle que soit la forme d'origine de la distribution. Il peut être illustré dans la figure ci-dessous:

Théorème de la limite centrale (CLT) - Comment cela se produit

De la figure ci-dessus, nous pouvons déduire que malgré le fait que la forme originale de la distribution était uniforme, elle tend vers une distribution normale lorsque la valeur de n (taille de l'échantillon) augmente.

En plus de montrer la forme que prendra la moyenne de l'échantillon, le théorème central limite donne également un aperçu de la moyenne et de la variance de la distribution. La moyenne d'échantillon de la distribution est la moyenne réelle de la population à partir de laquelle les échantillons ont été prélevés.

La variance de la distribution de l'échantillon, par contre, est la variance de la population divisée par n . Par conséquent, plus la taille de l'échantillon de la distribution est grande, plus la variance de la moyenne de l'échantillon est petite.

Exemple de théorème de limite centrale

Un investisseur souhaite estimer le rendement de l'indice boursier ABC composé de 100 000 actions. En raison de la grande taille de l'indice Dow Jones Industrial Average (DJIA), le Dow Jones Industrial Average (DJIA), aussi communément appelé «le Dow Jones» ou simplement «le Dow», est l'un des plus populaires et des plus répandus. Indices boursiers reconnus, l'investisseur est incapable d'analyser chaque action indépendamment et choisit plutôt d'utiliser un échantillonnage aléatoire pour obtenir une estimation du rendement global de l'indice.

L'investisseur sélectionne des échantillons aléatoires des actions, chaque échantillon comprenant au moins 30 actions. Les échantillons doivent être aléatoires et tous les échantillons précédemment sélectionnés doivent être remplacés dans les échantillons suivants pour éviter les biais.

Si le premier échantillon produit un rendement moyen de 7,5%, le prochain échantillon peut produire un rendement moyen de 7,8%. Compte tenu de la nature de l'échantillonnage aléatoire, chaque échantillon produira un résultat différent. Au fur et à mesure que vous augmentez la taille de l'échantillon avec chaque échantillon que vous choisissez, les moyennes d'échantillon commenceront à former leurs propres distributions.

La distribution des moyennes d'échantillon se déplacera vers la normale lorsque la valeur de n augmente. Le rendement moyen des actions de l'indice d'échantillon estime le rendement de l'ensemble de l'indice de 100 000 actions, et le rendement moyen est normalement distribué.

Histoire du théorème central des limites

La version initiale du théorème de la limite centrale a été inventée par Abraham De Moivre, un mathématicien d'origine française. Dans un article publié en 1733, De Moivre a utilisé la distribution normale pour trouver le nombre de têtes résultant de multiples lancers d'une pièce. Le concept était impopulaire à l'époque et il a été rapidement oublié.

Cependant, en 1812, le concept a été réintroduit par Pierre-Simon Laplace, un autre mathématicien français célèbre. Laplace a réintroduit le concept de distribution normale dans son travail intitulé «Théorie Analytique des Probabilités», où il a tenté d'approcher la distribution binomiale avec la distribution normale.

Le mathématicien a constaté que la moyenne des variables aléatoires indépendantes, lorsqu'elle est augmentée en nombre, a tendance à suivre une distribution normale. À cette époque, les découvertes de Laplace sur le théorème de la limite centrale ont attiré l'attention d'autres théoriciens et académiciens.

Plus tard en 1901, le théorème de la limite centrale a été développé par Aleksandr Lyapunov, un mathématicien russe. Lyapunov a fait un pas en avant pour définir le concept en termes généraux et prouver comment le concept fonctionnait mathématiquement. Les fonctions caractéristiques qu'il a utilisées pour fournir le théorème ont été adoptées dans la théorie des probabilités moderne.

Lectures connexes

Finance est le fournisseur officiel du programme de certification FMVA® Global Financial Modeling & Valuation Analyst (FMVA) ™. . Pour continuer à apprendre et faire progresser votre carrière, les ressources financières supplémentaires ci-dessous vous seront utiles:

  • Théorème de Bayes Théorème de Bayes En statistique et en théorie des probabilités, le théorème de Bayes (également connu sous le nom de règle de Bayes) est une formule mathématique utilisée pour déterminer le conditionnel
  • Tendance centrale Tendance centrale La tendance centrale est un résumé descriptif d'un ensemble de données à travers une valeur unique qui reflète le centre de la distribution des données. Avec la variabilité
  • Loi des grands nombres Loi des grands nombres En statistique et en théorie des probabilités, la loi des grands nombres est un théorème qui décrit le résultat de la répétition de la même expérience un grand nombre de
  • Règle de probabilité totale Règle de probabilité totale La règle de probabilité totale (également appelée loi de probabilité totale) est une règle fondamentale dans les statistiques relatives aux conditions conditionnelles et marginales.

Recommandé

Crackstreams a-t-il été fermé ?
2022
Le centre de commande MC est-il sûr ?
2022
Taliesin quitte-t-il un rôle critique?
2022