Na teoria da decisão e na teoria da estimativa, o exemplo de Stein (também conhecido como fenômeno de Stein ou paradoxo de Stein) é a observação de que quando três ou mais parâmetros são estimados simultaneamente, existem estimadores combinados mais precisos em média (ou seja, com menor erro médio quadrado esperado) do que qualquer método que manipule os parâmetros separadamente. É nomeado em homenagem a Charles Stein da Universidade de Stanford, que descobriu o fenômeno em 1955. [1]

Uma explicação intuitiva é que otimizar para o erro quadrático médio de um estimador combinado não é o mesmo que otimizar para os erros de estimadores separados dos parâmetros individuais. Em termos práticos, se o erro combinado for de fato de interesse, então um estimador combinado deve ser usado, mesmo que os parâmetros subjacentes sejam independentes. Se alguém estiver interessado em estimar um parâmetro individual, então usar um estimador combinado não ajuda e é de fato pior.

Declaração formal

editar

A seguinte é a forma mais simples do paradoxo, o caso especial em que o número de observações é igual ao número de parâmetros a serem estimados. Deixe   ser um vetor composto por   parâmetros desconhecidos. Para estimar esses parâmetros, uma única medição   é executado para cada parâmetro  , resultando em um vetor   de comprimento  . Suponha que as medições sejam conhecidas como variáveis aleatórias gaussianas independentes, com média   e variância 1, ou seja,  . Assim, cada parâmetro é estimado usando uma única medição de ruído, e cada medição é igualmente imprecisa.

Referências

editar

Bibliografia

editar
  Este artigo é um esboço. Você pode ajudar a Wikipédia expandindo-o. Editor: considere marcar com um esboço mais específico.