# Théorème de Lehmann-Scheffé

Lehmann–Scheffé theorem This article needs additional citations for verification. Aidez-nous à améliorer cet article en ajoutant des citations à des sources fiables. Le matériel non sourcé peut être contesté et supprimé. Trouver des sources: "Théorème de Lehmann-Scheffé" – actualités · journaux · livres · universitaires · JSTOR (Avril 2011) (Découvrez comment et quand supprimer ce modèle de message) Dans les statistiques, the Lehmann–Scheffé theorem is a prominent statement, tying together the ideas of completeness, sufficiency, uniqueness, and best unbiased estimation.[1] The theorem states that any estimator which is unbiased for a given unknown quantity and that depends on the data only through a complete, sufficient statistic is the unique best unbiased estimator of that quantity. The Lehmann–Scheffé theorem is named after Erich Leo Lehmann and Henry Scheffé, given their two early papers.[2][3] If T is a complete sufficient statistic for θ and E(g(J)) = τ(je) then g(J) is the uniformly minimum-variance unbiased estimator (UMVUE) of τ(je).

Contenu 1 Déclaration 1.1 Preuve 2 Example for when using a non-complete minimal sufficient statistic 3 Voir également 4 References Statement Let {style d'affichage {vec {X}}=X_{1},X_{2},des points ,X_{n}} be a random sample from a distribution that has p.d.f (or p.m.f in the discrete case) {style d'affichage f(X:thêta )} où {displaystyle theta in Omega } is a parameter in the parameter space. Supposer {displaystyle Y=u({vec {X}})} is a sufficient statistic for θ, et laissez {style d'affichage {F_{Oui}(y:thêta ):theta in Omega }} be a complete family. Si {style d'affichage varphi :nom de l'opérateur {E} [varphi (Oui)]=thêta } alors {style d'affichage varphi (Oui)} is the unique MVUE of θ.

Proof By the Rao–Blackwell theorem, si {style d'affichage Z} is an unbiased estimator of θ then {style d'affichage varphi (Oui):=nomopérateur {E} [Zmid Y]} defines an unbiased estimator of θ with the property that its variance is not greater than that of {style d'affichage Z} .

Now we show that this function is unique. Supposer {style d'affichage W.} is another candidate MVUE estimator of θ. Then again {style d'affichage psi (Oui):=nomopérateur {E} [Wmid Y]} defines an unbiased estimator of θ with the property that its variance is not greater than that of {style d'affichage W.} . Alors {nom de l'opérateur de style d'affichage {E} [varphi (Oui)-psi (Oui)]=0,theta in Omega .} Depuis {style d'affichage {F_{Oui}(y:thêta ):theta in Omega }} is a complete family {nom de l'opérateur de style d'affichage {E} [varphi (Oui)-psi (Oui)]=0implies varphi (y)-psi (y)=0,theta in Omega } and therefore the function {style d'affichage varphi } is the unique function of Y with variance not greater than that of any other unbiased estimator. We conclude that {style d'affichage varphi (Oui)} is the MVUE.

Example for when using a non-complete minimal sufficient statistic An example of an improvable Rao–Blackwell improvement, lors de l'utilisation d'une statistique minimale suffisante qui n'est pas complète, a été fourni par Galili et Meilijson en 2016.[4] Laisser {style d'affichage X_{1},ldots ,X_{n}} être un échantillon aléatoire d'une distribution uniforme à l'échelle {displaystyle Xsim U((1-k)thêta ,(1+k)thêta ),} de moyenne inconnue {nom de l'opérateur de style d'affichage {E} [X]=thêta } et paramètre de conception connu {parent de style d'affichage (0,1)} . A la recherche de "meilleur" estimateurs sans biais possibles pour {thêta de style d'affichage } , il est naturel de considérer {style d'affichage X_{1}} comme initiale (brut) estimateur sans biais pour {thêta de style d'affichage } puis essayer de l'améliorer. Depuis {style d'affichage X_{1}} n'est pas une fonction de {style d'affichage T=gauche(X_{(1)},X_{(n)}droit)} , la statistique minimale suffisante pour {thêta de style d'affichage } (où {style d'affichage X_{(1)}=min _{je}X_{je}} et {style d'affichage X_{(n)}=max _{je}X_{je}} ), il peut être amélioré en utilisant le théorème de Rao – Blackwell comme suit: {style d'affichage {chapeau {thêta }}_{RB}=nomopérateur {E} _{thêta }[X_{1}mid X_{(1)},X_{(n)}]={frac {X_{(1)}+X_{(n)}}{2}}.} Cependant, on peut montrer que l'estimateur sans biais suivant a une variance plus faible: {style d'affichage {chapeau {thêta }}_{BT}={frac {1}{k^{2}{frac {n-1}{n+1}}+1}}cdot {frac {(1-k)X_{(1)}+(1+k)X_{(n)}}{2}}.} Et en fait, il pourrait être encore amélioré en utilisant l'estimateur suivant: {style d'affichage {chapeau {thêta }}_{texte{BAIES}}={frac {n+1}{n}}la gauche[1-{frac {{frac {X_{(1)}(1+k)}{X_{(n)}(1-k)}}-1}{la gauche({frac {X_{(1)}(1+k)}{X_{(n)}(1-k)}}droit)^{n+1}-1}}droit]{frac {X_{(n)}}{1+k}}} Le modèle est un modèle réduit. Des estimateurs équivariants optimaux peuvent alors être dérivés pour les fonctions de perte qui sont invariantes.[5] See also Basu's theorem Complete class theorem Rao–Blackwell theorem References ^ Casella, George (2001). Statistical Inference. Duxbury Press. p. 369. ISBN 978-0-534-24312-8. ^ Lehmann, E. L; Scheffé, H. (1950). "Completeness, similar regions, and unbiased estimation. JE." Sankhyā. 10 (4): 305–340. est ce que je:10.1007/978-1-4614-1412-4_23. JSTOR 25048038. M 0039201. ^ Lehmann, E.L.; Scheffé, H. (1955). "Completeness, similar regions, and unbiased estimation. II". Sankhyā. 15 (3): 219–236. est ce que je:10.1007/978-1-4614-1412-4_24. JSTOR 25048243. M 0072410. ^ Tal Galili & Isaac Meilijson (31 Mar 2016). "Un exemple d'amélioration Rao-Blackwell améliorable, Estimateur du maximum de vraisemblance inefficace, et estimateur de Bayes généralisé sans biais". Le statisticien américain. 70 (1): 108–113. est ce que je:10.1080/00031305.2015.1100683. PMC 4960505. PMID 27499547. ^ Taraldsen, Gunnar (2020). "Michel Mandel (2020), "Le modèle uniforme à l'échelle revisité," Le statisticien américain, 74:1, 98–100: Commentaire". Le statisticien américain. 74 (3): 315–315. est ce que je:10.1080/00031305.2020.1769727. hide vte Statistics OutlineIndex show Descriptive statistics show Data collection hide Statistical inference Statistical theory PopulationStatisticProbability distributionSampling distribution Order statisticEmpirical distribution Density estimationStatistical model Model specificationLp spaceParameter locationscaleshapeParametric family Likelihood (monotone)Location–scale familyExponential familyCompletenessSufficiencyStatistical functional BootstrapUVOptimal decision loss functionEfficiencyStatistical distance divergenceAsymptoticsRobustness Frequentist inference Point estimation Estimating equations Maximum likelihoodMethod of momentsM-estimatorMinimum distanceUnbiased estimators Mean-unbiased minimum-variance Rao–BlackwellizationLehmann–Scheffé theoremMedian unbiasedPlug-in Interval estimation Confidence intervalPivotLikelihood intervalPrediction intervalTolerance intervalResampling BootstrapJackknife Testing hypothèses 1- & 2-tailsPower Uniformly most powerful testPermutation test Randomization testMultiple comparisons Parametric tests Likelihood-ratioScore/Lagrange multiplierWald Specific tests Z-test (Ordinaire)Test t de StudentF-test Qualité de l'ajustement Khi carréG-testKolmogorov–SmirnovAnderson–DarlingLillieforsJarque–BeraNormalité (Shapiro-Wilk)Test du rapport de vraisemblanceSélection du modèle Validation croiséeAICBIC Statistiques de classement Signe Médiane de l'échantillonRang signé (Wilcoxon) Estimateur de Hodges–LehmannSomme des rangs (Mann–Whitney)Anova non paramétrique unidirectionnelle (Kruskal-Valais)2-façon (Friedmann)Alternative commandée (Jonckheere–Terpstra)Test de Van der Waerden Inférence bayésienne Probabilité bayésienne a prioripostérieur Intervalle de crédibilité / Multivarié / Des séries chronologiques / Spectacle d'analyse de survie Catégories d'applications Portail mathématiqueCommons WikiCatégories de projets: Théorèmes en statistiqueThéorie de l'estimation

Si vous voulez connaître d'autres articles similaires à Théorème de Lehmann-Scheffé vous pouvez visiter la catégorie Théorie de l'estimation.

Monter

Nous utilisons nos propres cookies et ceux de tiers pour améliorer l'expérience utilisateur Plus d'informations