Théorème de De Moivre-Laplace
Théorème de De Moivre-Laplace (Redirigé depuis le théorème de de Moivre – Laplace) Aller à la navigation Aller à la recherche Dans un système dont les bacs sont remplis selon la distribution binomiale (comme celui de Galton "machine à haricots", montré ici), donné un nombre suffisant d'essais (ici les rangées d'épingles, dont chacun provoque une chute "haricot" tomber vers la gauche ou vers la droite), une forme représentant la distribution de probabilité de k succès dans n essais (see bottom of Fig. 7) correspond approximativement à la distribution gaussienne avec la moyenne np et la variance np(1−p), en supposant que les essais sont indépendants et que les succès se produisent avec une probabilité p. Envisagez de lancer un ensemble de n pièces un très grand nombre de fois et de compter le nombre de "têtes" qui en résulte à chaque fois. Le nombre possible de faces à chaque lancer, k, Court de 0 à n le long de l'axe horizontal, tandis que l'axe vertical représente la fréquence relative d'occurrence du résultat k têtes. La hauteur de chaque point est donc la probabilité d'observer k face en lançant n pièces (une distribution binomiale basée sur n essais). D'après le théorème de Moivre-Laplace, quand n devient grand, la forme de la distribution discrète converge vers la courbe gaussienne continue de la distribution normale.
En théorie des probabilités, le théorème de Moivre-Laplace, qui est un cas particulier du théorème central limite, indique que la distribution normale peut être utilisée comme approximation de la distribution binomiale sous certaines conditions. En particulier, le théorème montre que la fonction de masse de probabilité du nombre aléatoire de "succès" observé dans une série de {displaystyle n} essais Bernoulli indépendants, ayant chacun une probabilité {style d'affichage p} de succès (une distribution binomiale avec {displaystyle n} essais), converge vers la fonction de densité de probabilité de la distribution normale de moyenne {style d'affichage, par ex.} et écart-type {style de texte {sqrt {np(1-p)}}} , comme {displaystyle n} grandit, en supposant {style d'affichage p} n'est pas {style d'affichage 0} ou {style d'affichage 1} .
Le théorème est apparu dans la deuxième édition de La Doctrine des hasards par Abraham de Moivre, Publié dans 1738. Bien que de Moivre n'ait pas utilisé le terme "Essais de Bernoulli", il a écrit sur la distribution de probabilité du nombre de fois "têtes" apparaît lorsqu'une pièce est lancée 3600 fois.[1] Ceci est une dérivation de la fonction gaussienne particulière utilisée dans la distribution normale.
C'est un cas particulier du théorème central limite car un processus de Bernoulli peut être considéré comme le tirage de variables aléatoires indépendantes à partir d'une distribution discrète bimodale avec une probabilité non nulle uniquement pour les valeurs 0 et 1. Dans ce cas, la distribution binomiale modélise le nombre de succès (c'est à dire., le nombre de 1), alors que le théorème central limite stipule que, donné suffisamment grand n, la distribution des moyennes de l'échantillon sera approximativement normale. Cependant, car dans ce cas la fraction des succès (c'est à dire., le nombre de 1 divisé par le nombre d'essais, n) est égal à la moyenne de l'échantillon, la distribution des fractions de succès (décrit par la distribution binomiale divisée par la constante n) et la distribution de l'échantillon signifie (approximativement normal avec n grand en raison du théorème central limite) sont équivalents.
Contenu 1 Théorème 1.1 Preuve 1.2 Preuve alternative 2 Voir également 3 Notes Theorem As n grows large, pour k au voisinage de np on peut approximer[2][3] {style d'affichage {n choisir k},p^{k}q ^{nk}simeq {frac {1}{sqrt {2npq}}},e ^{-{frac {(k-np)^{2}}{2npq}}},qquad p+q=1, p,q>0} en ce sens que le rapport du côté gauche au côté droit converge vers 1 comme n → ∞.
Proof The theorem can be more rigorously stated as follows: {style d'affichage à gauche(X!,-!,pas juste)!/!{sqrt {npq}}} , avec {style d'affichage style de texte X} une variable aléatoire à distribution binomiale, se rapproche de la normale standard lorsque {displaystyle n!à !infime } , avec le rapport de la masse de probabilité de {style d'affichage X} à la densité normale limite étant 1. Cela peut être montré pour un point arbitraire non nul et fini {displaystyle c} . Sur la courbe non calibrée pour {style d'affichage X} , ce serait un point {style d'affichage k} donné par {style d'affichage k=np+c{sqrt {npq}}} Par exemple, avec {displaystyle c} à 3, {style d'affichage k} séjours 3 écarts-types par rapport à la moyenne dans la courbe non calibrée.
La distribution normale de moyenne {style d'affichage lui } et écart-type {style d'affichage sigma } est défini par l'équation différentielle (DE) {style d'affichage f'!(X)!=!-!,{frac {x-nous }{sigma ^{2}}}F(X)} avec une condition initiale fixée par l'axiome de probabilité {style d'affichage entier _{-infime }^{infime }!F(X),dx!=!1} .
La limite de distribution binomiale s'approche de la normale si le binôme satisfait cet DE. Comme le binôme est discret, l'équation commence par une équation aux différences dont la limite se transforme en DE. Les équations aux différences utilisent la dérivée discrète, {style d'affichage style de texte p(k!+!1)!-!p(k)} , le changement de taille de pas 1. Comme {style d'affichage style de texte m!à !infime } , la dérivée discrète devient la dérivée continue. Par conséquent, la preuve doit seulement montrer que, pour la distribution binomiale non échelonnée, {style d'affichage {frac {F'!(X)}{F!(X)}}!cdot !la gauche(-{frac {sigma ^{2}}{x-nous }}droit)!à !1} comme {displaystyle n!à !infime } .
Le résultat requis peut être affiché directement: {style d'affichage {commencer{aligné}{frac {F'!(X)}{F!(X)}}{frac {npq}{np!,-!,k}}!&={frac {plissé(n,k+1droit)-plissé(n,droit)}{plissé(n,droit)}}{frac {sqrt {npq}}{-c}}\&={frac {np-k-q}{kq+q}}{frac {sqrt {npq}}{-c}}\&={frac {-c{sqrt {npq}}-q}{npq+cq{sqrt {npq}}+q}}{frac {sqrt {npq}}{-c}}\&to 1end{aligné}}} La dernière est valable car le terme {style d'affichage -cnpq} domine à la fois le dénominateur et le numérateur car {displaystyle n!à !infime } .
Comme {style d'affichage style de texte k} prend juste des valeurs entières, la constante {style d'affichage style de texte c} est sujet à une erreur d'arrondi. Cependant, le maximum de cette erreur, {style d'affichage style de texte {0.5}/!{sqrt {npq}}} , est une valeur évanescente.[4] Alternate proof The proof consists of transforming the left-hand side (dans l'énoncé du théorème) à droite par trois approximations.
Première, selon la formule de Stirling, la factorielle d'un grand nombre n peut être remplacée par l'approximation {displaystyle n!simeq n^{n}e ^{-n}{sqrt {2pi n}}qquad {texte{comme }}pas trop .} Ainsi {style d'affichage {commencer{aligné}{n choisir k}p^{k}q ^{nk}&={frac {n!}{k!(nk)!}}p^{k}q ^{nk}\&simeq {frac {n^{n}e ^{-n}{sqrt {2pi n}}}{k^{k}e ^{-k}{sqrt {2pi k}}(nk)^{nk}e ^{-(nk)}{sqrt {2pi (nk)}}}}p^{k}q ^{nk}\&={sqrt {frac {n}{2pi kleft(n-kright)}}}{frac {n^{n}}{k^{k}la gauche(n-kright)^{nk}}}p^{k}q ^{nk}\&={sqrt {frac {n}{2pi kleft(n-kright)}}}la gauche({frac {np}{k}}droit)^{k}la gauche({frac {nq}{nk}}droit)^{nk}fin{aligné}}} Prochain, le rapprochement {style d'affichage {tfrac {k}{n}}Haut} est utilisé pour faire correspondre la racine au-dessus à la racine désirée sur le côté droit.
{style d'affichage {commencer{aligné}{n choisir k}p^{k}q ^{nk}&simeq {sqrt {frac {1}{2pi n{frac {k}{n}}la gauche(1-{frac {k}{n}}droit)}}}la gauche({frac {np}{k}}droit)^{k}la gauche({frac {nq}{nk}}droit)^{nk}\&simeq {frac {1}{sqrt {2npq}}}la gauche({frac {np}{k}}droit)^{k}la gauche({frac {nq}{nk}}droit)^{nk}qquad p+q=1end{aligné}}} Pour terminer, l'expression est réécrite comme une exponentielle et l'approximation de la série de Taylor pour ln(1+X) est utilisé: {style d'affichage à gauche(1+xright)simeq x-{frac {x^{2}}{2}}+{frac {x^{3}}{3}}-cdots } Alors {style d'affichage {commencer{aligné}{n choisir k}p^{k}q ^{nk}&simeq {frac {1}{sqrt {2npq}}}exp gauche{à gauche(la gauche({frac {np}{k}}droit)^{k}droit)+à gauche(la gauche({frac {nq}{nk}}droit)^{nk}droit)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{-kln à gauche({frac {k}{np}}droit)+(k-n)à gauche({frac {nk}{nq}}droit)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{-kln à gauche({frac {np+x{sqrt {npq}}}{np}}droit)+(k-n)à gauche({frac {n-np-x{sqrt {npq}}}{nq}}droit)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{-kln à gauche({1+X{sqrt {frac {q}{np}}}}droit)+(k-n)à gauche({1-X{sqrt {frac {p}{nq}}}}droit)droit}qquad p+q=1\&={frac {1}{sqrt {2npq}}}exp gauche{-kleft({X{sqrt {frac {q}{np}}}}-{frac {x^{2}q}{2np}}+cdots à droite)+(k-n)la gauche({-X{sqrt {frac {p}{nq}}}-{frac {x^{2}p}{2nq}}}-cdots à droite)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{la gauche(-np-x{sqrt {npq}}droit)la gauche({X{sqrt {frac {q}{np}}}}-{frac {x^{2}q}{2np}}+cdots à droite)+la gauche(np+x{sqrt {npq}}-pas vrai)la gauche(-X{sqrt {frac {p}{nq}}}-{frac {x^{2}p}{2nq}}-cdots à droite)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{la gauche(-np-x{sqrt {npq}}droit)la gauche(X{sqrt {frac {q}{np}}}-{frac {x^{2}q}{2np}}+cdots à droite)-la gauche(nq-x{sqrt {npq}}droit)la gauche(-X{sqrt {frac {p}{nq}}}-{frac {x^{2}p}{2nq}}-cdots à droite)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{la gauche(-X{sqrt {npq}}+{frac {1}{2}}x^{2}q-x ^{2}q+cdots à droite)+la gauche(X{sqrt {npq}}+{frac {1}{2}}x^{2}p-x ^{2}p-cdots à droite)droit}\&={frac {1}{sqrt {2npq}}}exp gauche{-{frac {1}{2}}x^{2}q-{frac {1}{2}}x^{2}p-cdots à droite}\&={frac {1}{sqrt {2npq}}}exp gauche{-{frac {1}{2}}x^{2}(p+q)-cdots à droite}\&simeq {frac {1}{sqrt {2npq}}}exp gauche{-{frac {1}{2}}x^{2}droit}\&={frac {1}{sqrt {2npq}}}e ^{frac {-(k-np)^{2}}{2npq}}\fin{aligné}}} Chaque " {style d'affichage simeq } " dans l'argument ci-dessus est une déclaration que deux quantités sont asymptotiquement équivalentes lorsque n augmente, dans le même sens que dans l'énoncé original du théorème, c'est-à-dire, que le rapport de chaque paire de grandeurs approche 1 comme n → ∞.
Voir aussi La distribution de Poisson est une approximation alternative de la distribution binomiale pour les grandes valeurs de n. Remarques ^ Marcheur, Hélène M (1985). "De Moivre sur la loi de probabilité normale" (PDF). À Smith, David Eugène (éd.). Un livre source en mathématiques. Douvres. p. 78. ISBN 0-486-64690-4. Mais bien que la prise d'un nombre infini d'expériences ne soit pas praticable, or les conclusions précédentes peuvent très bien s'appliquer à des nombres finis, à condition qu'ils soient grands, par exemple, si 3600 Des expériences soient prises, faire n = 3600, donc ½n sera = 1800, et ½√n 30, alors la probabilité que l'événement n'apparaisse pas plus souvent que 1830 fois, ni plus rarement que 1770, sera 0.682688. ^ Papoulis, Athanasios; Pillai, S. Unnikrishna (2002). Probabilité, Variables aléatoires, et processus stochastiques (4e éd.). Boston: McGraw Hill. ISBN 0-07-122661-3. ^ Abatteur, O. (1968). Une introduction à la théorie des probabilités et à ses applications. Volume. 1. Wiley. Section VII.3. ISBN 0-471-25708-7. ^ Thamattou, Une joie (2018). "Limite normale du binôme via la dérivée discrète". Le journal de mathématiques du collège. 49 (3): 216–217. est ce que je:10.1080/07468342.2018.1440872. S2CID 125977913. Catégories: Théorème central limite
Si vous voulez connaître d'autres articles similaires à Théorème de De Moivre-Laplace vous pouvez visiter la catégorie Théorème central limite.
Laisser un commentaire