Basu's theorem

Basu's theorem In statistics, Basu's theorem states that any boundedly complete minimal sufficient statistic is independent of any ancillary statistic. Questo è un 1955 result of Debabrata Basu.[1] It is often used in statistics as a tool to prove independence of two statistics, by first demonstrating one is complete sufficient and the other is ancillary, then appealing to the theorem.[2] An example of this is to show that the sample mean and sample variance of a normal distribution are independent statistics, which is done in the Example section below. This property (independence of sample mean and sample variance) characterizes normal distributions.
Contenuti 1 Dichiarazione 1.1 Prova 2 Esempio 2.1 Independence of sample mean and sample variance of a normal distribution 3 Appunti 4 Riferimenti Dichiarazione Let {stile di visualizzazione (P_{teta };theta in Theta )} be a family of distributions on a measurable space {stile di visualizzazione (X,{matematico {UN}})} e {stile di visualizzazione T,UN} measurable maps from {stile di visualizzazione (X,{matematico {UN}})} to some measurable space {stile di visualizzazione (Y,{matematico {B}})} . (Such maps are called a statistic.) Se {stile di visualizzazione T} is a boundedly complete sufficient statistic for {stile di visualizzazione theta } , e {stile di visualizzazione A} is ancillary to {stile di visualizzazione theta } , then conditional on {stile di visualizzazione theta } , {stile di visualizzazione T} is independent of {stile di visualizzazione A} . Questo è, {displaystyle Tperp A|teta } .
Proof Let {stile di visualizzazione P_{teta }^{T}} e {stile di visualizzazione P_{teta }^{UN}} be the marginal distributions of {stile di visualizzazione T} e {stile di visualizzazione A} rispettivamente.
Denote by {stile di visualizzazione A^{-1}(B)} the preimage of a set {stile di visualizzazione B} under the map {stile di visualizzazione A} . For any measurable set {displaystyle Bin {matematico {B}}} noi abbiamo {stile di visualizzazione P_{teta }^{UN}(B)=P_{teta }(A^{-1}(B))=int _{Y}P_{teta }(A^{-1}(B)mid T=t) P_{teta }^{T}(dt).} La distribuzione {stile di visualizzazione P_{teta }^{UN}} does not depend on {stile di visualizzazione theta } perché {stile di visualizzazione A} is ancillary. Allo stesso modo, {stile di visualizzazione P_{teta }(cdot mid T=t)} does not depend on {stile di visualizzazione theta } perché {stile di visualizzazione T} is sufficient. Perciò {displaystyle int _{Y}{grande [}P(A^{-1}(B)mid T=t)-P^{UN}(B){grande ]} P_{teta }^{T}(dt)=0.} Note the integrand (the function inside the integral) is a function of {stile di visualizzazione t} and not {stile di visualizzazione theta } . Perciò, da {stile di visualizzazione T} is boundedly complete the function {stile di visualizzazione g(t)=P(A^{-1}(B)mid T=t)-P^{UN}(B)} is zero for {stile di visualizzazione P_{teta }^{T}} almost all values of {stile di visualizzazione t} e quindi {stile di visualizzazione P(A^{-1}(B)mid T=t)=P^{UN}(B)} for almost all {stile di visualizzazione t} . Perciò, {stile di visualizzazione A} is independent of {stile di visualizzazione T} .
Example Independence of sample mean and sample variance of a normal distribution Let X1, X2, ..., Xn be independent, identically distributed normal random variables with mean μ and variance σ2.
Then with respect to the parameter μ, uno può dimostrarlo {stile di visualizzazione {widehat {in }}={frac {sum X_{io}}{n}},} the sample mean, is a complete and sufficient statistic – it is all the information one can derive to estimate μ, and no more – and {stile di visualizzazione {widehat {sigma }}^{2}={frac {sum left(X_{io}-{sbarra {X}}Giusto)^{2}}{n-1}},} the sample variance, is an ancillary statistic – its distribution does not depend on μ.
Perciò, from Basu's theorem it follows that these statistics are independent conditional on {displaystyle lui } , conditional on {displaystyle sigma ^{2}} .
This independence result can also be proven by Cochran's theorem.
Ulteriore, this property (that the sample mean and sample variance of the normal distribution are independent) characterizes the normal distribution – no other distribution has this property.[3] Notes ^ Basu (1955) ^ Ghosh, Malay; Muchopadhyay, Nitis; Sen, Pranab Kumar (2011), Sequential Estimation, Wiley Series in Probability and Statistics, vol. 904, John Wiley & Sons, p. 80, ISBN 9781118165911, The following theorem, due to Basu ... helps us in proving independence between certain types of statistics, without actually deriving the joint and marginal distributions of the statistics involved. This is a very powerful tool and it is often used ... ^ Geary, R.C. (1936). "The Distribution of "Student's" Ratio for Non-Normal Samples". Supplement to the Journal of the Royal Statistical Society. 3 (2): 178–184. doi:10.2307/2983669. JFM 63.1090.03. JSTOR 2983669. Questo articolo include un elenco di riferimenti generali, ma manca di citazioni inline corrispondenti sufficienti. Aiutaci a migliorare questo articolo introducendo citazioni più precise. (Dicembre 2009) (Scopri come e quando rimuovere questo messaggio modello) References Basu, D. (1955). "On Statistics Independent of a Complete Sufficient Statistic". Sankhyā. 15 (4): 377–380. JSTOR 25048259. SIG 0074745. Zbl 0068.13401. Muchopadhyay, Nitis (2000). Probability and Statistical Inference. Statistics: A Series of Textbooks and Monographs. 162. Florida: CRC Press USA. ISBN 0-8247-0379-0. fischi, Dennis D.; Oliver, Jacqueline M. Hughes (Aug 1998). "Applications of Basu's Theorem". Lo statistico americano. 52 (3): 218–221. doi:10.2307/2685927. JSTOR 2685927. SIG 1650407. Ghosh, Malay (ottobre 2002). "Basu's Theorem with Applications: A Personalistic Review". Sankhyā: The Indian Journal of Statistics, Serie A. 64 (3): 509–531. JSTOR 25051412. SIG 1985397. show vte Statistics Categories: Theorems in statisticsIndependence (probability theory)
Se vuoi conoscere altri articoli simili a Basu's theorem puoi visitare la categoria Independence (probability theory).
lascia un commento