Variância Índice História do conceito | Definição | Propriedades | Variância da população e variância da amostra | Generalizações | Distribuição da variância | Variância assintótica | Ver também | Referências Menu de navegaçãoGooglenotíciaslivrosacadêmicoee

Estatística


variável aleatóriaprocesso estocásticodispersão estatísticavalor esperadomomento centralcumulanteDesvio PadrãoRonald Fishermomento de inérciamecânica clássicavalor esperadomédiadistribuição Cauchydistribuição t de Studentcontra-exemplocentímetroscentímetros quadradosdesvio padrãovariável aleatóriacovariânciaamostra estatísticaestimadormatriz quadrada não-negativa definidamatriz de covariânciaconjugado complexovariáveis aleatóriasvariável aleatóriadistribuição normalnormalcurtoselei dos grandes númerosAnálise de "Cluster" (Análise de agrupamento)








Question book-4.svg

Esta página ou secção cita fontes confiáveis e independentes, mas que não cobrem todo o conteúdo, o que compromete a verificabilidade (desde novembro de 2014). Por favor, insira mais referências no texto. Material sem fontes poderá ser removido.
Encontre fontes: Google (notícias, livros e acadêmico)









Na teoria da probabilidade e na estatística, a variância de uma variável aleatória ou processo estocástico é uma medida da sua dispersão estatística, indicando "o quão longe" em geral os seus valores se encontram do valor esperado.[1][2][3][4]


A variância de uma variável aleatória real é o seu segundo momento central e também o seu segundo cumulante (os cumulantes só diferem dos momentos centrais a partir do 4º grau, inclusive). Sendo o seu valor o quadrado do Desvio Padrão.


Algumas definições
Variância de uma variável aleatória é a medida de dispersão ou espalhamento em torno dos possíveis valores dessa variável aleatória (tradução livre, [1] ).


Índice





  • 1 História do conceito


  • 2 Definição


  • 3 Propriedades


  • 4 Variância da população e variância da amostra


  • 5 Generalizações


  • 6 Distribuição da variância


  • 7 Variância assintótica


  • 8 Ver também


  • 9 Referências




História do conceito |


O termo variância foi introduzido por Ronald Fisher num ensaio de 1918 intitulado de The Correlation Between Relatives on the Supposition of Mendelian Inheritance. O conceito de variância é análogo ao conceito de momento de inércia em mecânica clássica.



Definição |


Se μ = E(X) é o valor esperado (média) da variável aleatória X, então a variância é:


var⁡(X)=E⁡((X−μ)2).displaystyle operatorname var (X)=operatorname E ((X-mu )^2).

Isto é, é o valor esperado do quadrado do desvio de X da sua própria média. Em linguagem comum isto pode ser expresso como "A média do quadrado da distância de cada ponto até a média". É assim a "média do quadrado dos desvios". A variância da variável aleatória "X" é geralmente designada por var⁡(X)displaystyle operatorname var (X), σX2displaystyle sigma _X^2, ou simplesmente σ2displaystyle sigma ^2.


Notar que a definição acima pode ser usada quer para variáveis aleatórias discretas, quer para contínuas.


Muitas distribuições, tais como a distribuição Cauchy, não têm variância porque o integral relevante diverge. Em particular, se uma distribuição não tem valores esperados, ela também não tem variância.


O contrário não é verdadeiro: há distribuições para as quais existe valor esperado mas não existe variância, como, por exemplo, a distribuição t de Student com 2 graus de liberdade. Um contra-exemplo mais simples é uma distribuição discreta sobre N⋆displaystyle mathbb N ^star , em que a probabilidade de cada ponto n é proporcional a 1n3displaystyle frac 1n^3,. O valor esperado será calculado através de uma série convergente Σ1n2displaystyle Sigma frac 1n^2,, e a variância através de uma série divergente Σ1ndisplaystyle Sigma frac 1n,.



Propriedades |


Se a variância pode ser calculada (ou seja, a integral ou o somatório convergem), podemos concluir que ela nunca é negativa, porque os quadrados são sempre positivos ou nulos.


A unidade de variância é o quadrado da unidade de observação. Por exemplo, a variância de um conjunto de alturas medidas em centímetros será dada em centímetros quadrados. A variância de um preço, medido, por exemplo, em euros por metro cúbico, será dada em euros quadrados por metro à sexta potência, uma unidade que não faz nenhum sentido prático. Este facto é inconveniente e levou muitos estatísticos a usar a raiz quadrada da variância, conhecida como o desvio padrão, como um sumário da dispersão.


Pode ser provado facilmente a partir da definição que a variância não depende do valor médio μdisplaystyle mu . Isto é, se a variável é "deslocada" por uma quantidade b ao tomarmos X+b, a variância da variável aleatória resultante permanece inalterada. Por contraste, se a variável for multiplicada por um factor de escala a, a variância é então multiplicada por a2. Mais formalmente, se a e b forem constantes reais e X uma variável aleatória cuja variância está definida, então:


var⁡(aX+b)=a2var⁡(X)displaystyle operatorname var (aX+b)=a^2operatorname var (X)

Outra fórmula para a variância que se deduz de forma simples a partir da definição acima é:


var⁡(X)=E⁡(X2)−(E⁡(X))2.displaystyle operatorname var (X)=operatorname E (X^2)-(operatorname E (X))^2.

Na prática usa-se muito frequentemente esta fórmula para calcular mais rapidamente a variância.


Uma razão para o uso da variância em preferência a outras medidas de dispersão é que a variância da soma (ou diferença) de variáveis aleatórias independentes é a soma das suas variâncias. Uma condição não tão estricta, chamada de incorrelação (uncorrelatedness) também é suficiente. Para duas variáveis temos:


var⁡(X+Y)=var⁡(X)+var⁡(Y)+2cov⁡(X,Y).displaystyle operatorname var (X+Y)=operatorname var (X)+operatorname var (Y)+2operatorname cov (X,Y).

E em geral, para uma combinação linear qualquer:

Var⁡(∑i=1NaiXi)=∑i,j=1NaiajCov⁡(Xi,Xj)=∑i=1Nai2Var⁡(Xi)+∑i≠jaiajCov⁡(Xi,Xj)=∑i=1Nai2Var⁡(Xi)+2∑1≤i<j≤NaiajCov⁡(Xi,Xj).displaystyle beginalignedoperatorname Var left(sum _i=1^Na_iX_iright)&=sum _i,j=1^Na_ia_joperatorname Cov (X_i,X_j)\&=sum _i=1^Na_i^2operatorname Var (X_i)+sum _inot =ja_ia_joperatorname Cov (X_i,X_j)\&=sum _i=1^Na_i^2operatorname Var (X_i)+2sum _1leq i<jleq Na_ia_joperatorname Cov (X_i,X_j).endaligned


Aqui covdisplaystyle operatorname cov é a covariância, a qual é zero para variáveis aleatórias não correlacionadas.



Variância da população e variância da amostra |


Em estatística, o conceito de variância também pode ser usado para descrever um conjunto de observações. Quando o conjunto das observações é uma população, é chamada de variância da população. Se o conjunto das observações é (apenas) uma amostra estatística, chamamos-lhe de variância amostral (ou variância da amostra).


A variância da população yi onde i = 1, 2, ...., N é dada por


σ2=1N∑i=1N(yi−μ)2,displaystyle sigma ^2=frac 1Nsum _i=1^Nleft(y_i-mu right)^2,

onde μdisplaystyle mu é a média da população. Na prática, quando lidando com grandes populações, é quase sempre impossível achar o valor exacto da variância da população, devido ao tempo, custo e outras restrições aos recursos.


Um método comum de estimar a variância da população é através da tomada de amostras.


Quando estimando a variância da população usando n amostras aleatórias xi onde i = 1, 2, ..., n, a fórmula seguinte é um estimador não enviesado:


s2=1n−1∑i=1n(xi−x¯)2,displaystyle s^2=frac 1n-1sum _i=1^nleft(x_i-overline xright)^2,

onde x¯displaystyle overline x é a média da amostra.


Notar que o denominador n-1 acima contrasta com a equação para a variância da população. Uma fonte de confusão comum é que o termo variância da amostra e a notação s2 pode referir-se quer ao estimador não enviesado da variância da população acima como também àquilo que é em termos estrictos, a variância da amostra, calculada usando n em vez de n-1.


Intuitivamente, o cálculo da variância pela divisão por n em vez de n-1 dá uma subestimativa da variância da população. Isto porque usamos a média da amostra x¯displaystyle overline x como uma estimativa da média da população μdisplaystyle mu , o que não conhecemos. Na prática, porém, para grandes n, esta distinção é geralmente muito pequena.



Generalizações |


Se X é uma variável aleatória vectorial, com valores em Rn, e considerado como um vector coluna, então a generalização natural da variância é E[(X − μ)(X − μ)T], onde μ = E(X) e XT é a transposta de X, e logo um vector-linha. A variância é uma matriz quadrada não-negativa definida, referida geralmente como a matriz de covariância.


Se X é uma variável aleatória de valores complexos, então a sua variância é E[(X − μ)(X − μ)*], onde X* é o conjugado complexo de X. Esta variância, assim como no caso real, é uma matriz quadrada não-negativa definida, cuja diagonal são números reais não-negativos.



Distribuição da variância |


Como a variância é uma função de variáveis aleatórias, a variância amostral é em si também uma variável aleatória, portanto também tem distribuição. Então, se yi são observações independentes de uma distribuição normal, pelo teorema de Cochran a variância amostral s2 tem uma distribuição qui-quadrado:


(n−1)s2σ2∼χn−12.displaystyle (n-1)frac s^2sigma ^2sim chi _n-1^2.

Uma consequência direta deste resultado é que a esperança da variância amostral E(s2) = σ2.


Se as observações yi são independentes e identicamente distribuídas, mas não necessariamente distribuidas como uma normal, então


E⁡[s2]=σ2,Var⁡[s2]=σ4(2n−1+κn),displaystyle operatorname E [s^2]=sigma ^2,quad operatorname Var [s^2]=sigma ^4left(frac 2n-1+frac kappa nright),

onde κ é a curtose da distribuição. Se as condições da lei dos grandes números valerem, então s2 é um estimador consistente de  σ2.



Variância assintótica |



Ver artigo principal: Convergência de variáveis aleatórias

A variância assintótica é a variância limite, ou seja, aquela que a sequência, ou estimador, tem no limite.



Ver também |


  • Coeficiente de variação

  • Valor esperado

  • Desvio padrão

  • Moda

  • Obliquidade

  • Curtose

  • ANOVA


Referências



  1. ab RUNGER, George C.; MONTGOMERY, Douglas C. Applied Statistics and Probability for Engineers. 3rd ed. Mídia em CD: 2002.


  2. TRIOLA, Mario F. Introdução à estatística. 10° edição. Tradução: Vera Regina Lima de Farias. Rio de Janeiro: LTC, 2005.


  3. LAPPONI, Juan Carlos. Estatística usando Excel. 4° edição. Rio de Janeiro: Elsevier, 2005.


  4. EVANS, Lawrence C. An introduction to stochastic differential equations. Version 1.2. see: http://math.berkeley.edu/~evans/SDE.course.pdf. 2012.
























  • Portal da matemática
  • Portal da probabilidade e estatística

Popular posts from this blog

Era Viking Índice Início da Era Viquingue | Cotidiano | Sociedade | Língua | Religião | A arte | As primeiras cidades | As viagens dos viquingues | Viquingues do Oeste e Leste | Fim da Era Viquingue | Fontes históricas | Referências Bibliografia | Ligações externas | Menu de navegação«Sverige då!»«Handel I vikingetid»«O que é Nórdico Antigo»Mito, magia e religião na volsunga saga Um olhar sobre a trajetória mítica do herói sigurd«Bonden var den verklige vikingen»«Vikingatiden»«Vikingatiden»«Vinland»«Guerreiras de Óðinn: As Valkyrjor na Mitologia Viking»1519-9053«Esculpindo símbolos e seres: A arte viking em pedras rúnicas»1679-9313Historia - Tema: VikingarnaAventura e Magia no Mundo das Sagas IslandesasEra Vikinge

Metrô de Los Teques Índice Linhas | Estações | Ver também | Referências Ligações externas | Menu de navegação«INSTITUCIÓN»«Mapa de rutas»originalMetrô de Los TequesC.A. Metro Los Teques |Alcaldía de Guaicaipuro – Sitio OficialGobernacion de Mirandaeeeeeee

What's the metal clinking sound at the end of credits in Avengers: Endgame?What makes Thanos so strong in Avengers: Endgame?Who is the character that appears at the end of Endgame?What happens to Mjolnir (Thor's hammer) at the end of Endgame?The People's Ages in Avengers: EndgameWhat did Nebula do in Avengers: Endgame?Messing with time in the Avengers: Endgame climaxAvengers: Endgame timelineWhat are the time-travel rules in Avengers Endgame?Why use this song in Avengers: Endgame Opening Logo Sequence?Peggy's age in Avengers Endgame