Independência condicional

Em teoria das probabilidades, dois eventos e são condicionalmente independentes se, dado um terceiro evento , a ocorrência ou não-ocorrência de e a ocorrência ou não-ocorrência de são eventos independentes em sua distribuição de probabilidade condicional dado . Em outras palavras, e são condicionalmente independentes dado se, e somente se, sabendo que ocorre, saber se ocorre não fornece nenhuma informação sobre a probabilidade de ocorrer, e saber se ocorre não fornece nenhuma informação sobre a probabilidade de ocorrer.

Definição formal

editar
 
Estes são dois exemplos que ilustram a independência condicional. Cada quadrado representa um possível resultado. Os eventos  ,   e   são representados pelas áreas sombreadas em vermelho, azul e amarelo respectivamente. A sobreposição entre os eventos   e   é sombreada de roxo. As probabilidades destes eventos são áreas sombreadas em relação à área total. Em ambos os exemplos,   e   são condicionalmente independentes, dado  , porque  [nota 1] mas não são condicionalmente independentes dado  , por que  .

Na notação padrão da teoria de probabilidade, os eventos   e   são condicionalmente independentes dado um terceiro evento   se, e somente se,

 ,

ou equivalentemente,

 .

Duas variáveis aleatórias   e   são condicionalmente independentes dada uma terceira variável aleatória   se, e somente se, eles são independentes na sua distribuição de probabilidade condicional dado  . Isto é,   e   são condicionalmente independentes dado   se, e somente se, dado qualquer valor de  , a distribuição de probabilidade de   é a mesmo para todos os valores de   e a distribuição de probabilidade de   é a mesma para todos os valores de  .

Dois eventos   e   são condicionalmente independentes dada uma σ-álgebra   se

 

onde   denota a expectativa condicional da função indicadora do evento  ,  , dada a sigma-álgebra  . Isto é,

 .

Duas variáveis aleatórias   e   são condicionalmente independentes dada uma σ-álgebra   se a equação acima vale para todo o   em   e   em  .

Duas variáveis aleatórias   e   são condicionalmente independentes dada uma variável aleatória   se eles são independentes dada  : a σ-álgebra gerada por  . Isso é comumente escrito:

  ou
 

Isto se lê como "  é independente de  , dado  "; e o condicionamento aplica-se a declaração toda.

Se   pressupõe um conjunto contável de valores, isto é equivalente a independência condicional de   e   para os eventos da forma  . A independência condicional de mais de dois eventos, ou de mais de duas variáveis aleatórias, é definida de forma análoga.

Exemplos

editar
  • Suponha que   é 0 com probabilidade 0,5 e 1 em caso contrário. Quando   tome   e   como independentes, cada uma tendo valor 0 com probabilidade de 0,99 e 1 em caso contrário. Quando  ,   e   novamente estão independentes, mas desta vez eles tomam o valor 1 com probabilidade de 0,99. Então,  . Mas   e   são dependentes, por que  . Isto por que  , mas se   então é muito provável que   e, assim,  , então  .
  • Suponha  , cada um tomando os valores 0 e 1 com probabilidade 0,5. Seja   o produto  . Em seguida, quando  ,  , mas  , então,   é falso.[nota 2]
  • Sejam os dois eventos as probabilidades de pessoas A e B chegarem em casa a tempo para o jantar, e o terceiro evento é o fato de que uma tempestade de neve atingiu a cidade. Enquanto ambos A e B têm uma menor probabilidade de chegar em casa a tempo para o jantar, as probabilidades menores ainda serão independentes umas das outras. Isto é, o conhecimento de que A está atrasado, não diz se B irá se atrasar. Eles podem viver em bairros diferentes, viajar distâncias diferentes, e utilizar diferentes meios de transporte. No entanto, se você souber que eles vivem no mesmo bairro, usam o mesmo transporte, e trabalham no mesmo lugar, então, os dois eventos não são condicionalmente independentes.
  • A independência condicional depende da natureza do terceiro evento. Se você rolar dois dados, pode-se assumir que os dois dados se comportam de forma independente um do outro. Saber os resultados do primeiro dado não diz sobre os resultados do segundo dado, isto é, os dois dados são independentes. Se, no entanto, o resultado do primeiro dado é 3, e alguém informa sobre um terceiro evento - que a soma dos dois resultados é par, por exemplo - então esta informação adicional restringe as opções do segundo resultado para um número ímpar. Em outras palavras, dois eventos podem ser independente, mas não condicionalmente independentes.
  • A altura e o vocabulário não são independentes, mas elas são condicionalmente independentes, se você adicionar a idade.[1]

Usos na inferência bayesiana

editar

Seja   a proporção de eleitores que vão votar "sim" em um referendo. Em uma pesquisa de opinião, escolhe-se   eleitores aleatoriamente a partir da população. Para  , seja   ou  , correspondendo, respectivamente, a se o  -ésimo eleitor escolhido vai ou não votar "sim".

Em uma abordagem frequentista de inferência estatística não se atribuiria qualquer distribuição de probabilidade para   (a menos que as probabilidades possam ser, de alguma forma, interpretadas como frequências relativas de ocorrência de algum evento ou como proporções de alguma população) e pode-se dizer que   são variáveis aleatórias independentes.

Por outro lado, em uma abordagem bayesiana de inferência estatística, atribuiria-se uma distribuição de probabilidade para  , independentemente da não-existência de qualquer interpretação de "frequência", e interpretaria-se as probabilidades como graus de crença de que   está em qualquer intervalo para o qual a probabilidade é atribuída. Nesse modelo, as variáveis aleatórias   não são independentes, mas elas são condicionalmente independentes, dado o valor de  . Em particular, se um grande número de  s são observados sendo iguais a 1, tal observação implica uma alta probabilidade condicional de que   está próximo de 1, e, portanto, uma alta probabilidade condicional que o próximo   a ser observado será igual a 1.

Regras de independência condicional

editar

Um conjunto de regras que regem as afirmações da independência condicional são derivados a partir da definição básica.[2][3]

Uma vez que estas implicações se mantém para qualquer espaço de probabilidade, eles ainda irão se manter se considerar-se um sub-universo condicionando tudo em outra variável, digamos  . Por exemplo,   também significaria que  .

As cinco regras abaixo foram denominadas "axiomas grafóides" por Pearl e Paz,[4] porque elas se mantém em grafos, se   é interpretado significando que "todos os caminhos de   para   são interceptados pelo conjunto  ".[5]

Simetria

editar
 

Decomposição

editar
 

Prova:

  •  (significado de  )[nota 3]
  •  (ignora-se a variável   integrando-a)
  •       Uma prova similar mostra a independência de   e  .

União fraca

editar
 

Prova:

  • Por definição,  .
  • Devido à propriedade de decomposição  ,  .
  • Combinando as duas igualdades tem-se  , que estabelece  .

A segunda condição pode ser provada do mesmo modo.

Contração

editar
 

Prova:

Esta propriedade pode ser comprovada por  , cada igualdade do que é afirmado por   e  , respectivamente.

Contração-união-fraca-decomposição

editar

Colocando os três acima juntos, tem-se que:

 

Intersecção

editar

Para distribuições de probabilidade estritamente positivas,[3] o seguinte também é verdadeiro:

 

Ver também

editar

Notas

  1. Para entender esse caso, é preciso entender que   é a probabilidade de uma intersecção de   e   (a área sombreada de roxo) na área  . Como na imagem a esquerda existem dois quadrados onde   e   se interseccionam dentro da área  , e a área   tem 12 quadrados,  . De modo similar,   e  .
  2. Os dois primeiros exemplos mostram que   nem implica nem é expressa por  .
  3. A vírgula, nesta fórmula e nas similares, pode ser lida como um "E".

Referências

  1. «Could someone explain conditional independence?». math.stackexchange.com. Consultado em 28 de novembro de 2016 
  2. Dawid, A. P. (1979). «Conditional Independence in Statistical Theory». Journal of the Royal Statistical Society, Series B. 41 (1): 1–31. JSTOR 2984718. MR 0535541 
  3. a b J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
  4. Pearl, Judea; Paz, Azaria (1985). Graphoids: A Graph-Based Logic for Reasoning About Relevance Relations. [S.l.: s.n.] 
  5. Pearl, Judea (1988). Probabilistic reasoning in intelligent systems: networks of plausible inference. [S.l.]: Morgan Kaufmann