General

Análise Bayesiana de Dados - Aula PDF

Description
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Categories
Published
of 45
All materials on our website are shared by users. If you have any questions about copyright issues, please report us to resolve them. We are always happy to assist you.
Related Documents
Share
Transcript
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência é usar a informação para reduzir a incerteza sobre um objeto em estudo. Paradigmas Bayesiano Introdução Fazer inferência é usar a informação para reduzir a incerteza sobre um objeto em estudo. Existe duas fontes de informação: amostral (associado ao experimento) e conhecimentos prévios (sua experiência de vida) Paradigmas Bayesiano Introdução Fazer inferência é usar a informação para reduzir a incerteza sobre um objeto em estudo. Existe duas fontes de informação: amostral (associado ao experimento) e conhecimentos prévios (sua experiência de vida) A incerteza a respeito de tudo o que é desconhecido deve ser traduzida por uma medida de probabilidade. Paradigmas Bayesiano Introdução Fazer inferência é usar a informação para reduzir a incerteza sobre um objeto em estudo. Existe duas fontes de informação: amostral (associado ao experimento) e conhecimentos prévios (sua experiência de vida) A incerteza a respeito de tudo o que é desconhecido deve ser traduzida por uma medida de probabilidade. Interpretações subjetiva ou lógica de probabilidade. Paradigmas Bayesiano Introdução Fazer inferência é usar a informação para reduzir a incerteza sobre um objeto em estudo. Existe duas fontes de informação: amostral (associado ao experimento) e conhecimentos prévios (sua experiência de vida) A incerteza a respeito de tudo o que é desconhecido deve ser traduzida por uma medida de probabilidade. Interpretações subjetiva ou lógica de probabilidade. Probabilidade como uma medida pessoal de incerteza, não como o limite da frequência relativa (postura clássica). Comparação com a inferência clássica Na escola Bayesiana cada observação é única. Comparação com a inferência clássica Na escola Bayesiana cada observação é única. A escola Clássica é baseada na possibilidade de repetir experimentos sob as mesmas condições. Comparação com a inferência clássica Na escola Bayesiana cada observação é única. A escola Clássica é baseada na possibilidade de repetir experimentos sob as mesmas condições. Exemplo 1: Interpretação da medida de probabilidade. EC: Se lançamos n vezes a mesma moeda sob as mesmas condições e calculamos a frequência relativa do número de caras, este valor se estabilizará em 1/2 (limite da frequência relativa). Comparação com a inferência clássica Na escola Bayesiana cada observação é única. A escola Clássica é baseada na possibilidade de repetir experimentos sob as mesmas condições. Exemplo 1: Interpretação da medida de probabilidade. EC: Se lançamos n vezes a mesma moeda sob as mesmas condições e calculamos a frequência relativa do número de caras, este valor se estabilizará em 1/2 (limite da frequência relativa). EB: Para você a credibilidade na ocorrência de cara é a mesma que na não ocorrência. Se você tiver que apostar contra um oponente no resultado da moeda (cara) deverá apostar 1 contra 1. Então P rob(cara) = 1/2. Comparação com a inferência clássica Exemplo 2: Faz sentido utilizar toda a informação disponível ou somente a amostral é relevante? Comparação com a inferência clássica Exemplo 2: Faz sentido utilizar toda a informação disponível ou somente a amostral é relevante? Você deseja inferir sobre a capacidade de uma pessoa acertar resultados. Apresentam-se para o teste um especialista em música que diz ser capaz de diferir as músicas de Haydn e Mozart. um bêbado que diz ser capaz de acertar os resultados no lançamento de uma moeda. Comparação com a inferência clássica Exemplo 2: Faz sentido utilizar toda a informação disponível ou somente a amostral é relevante? Você deseja inferir sobre a capacidade de uma pessoa acertar resultados. Apresentam-se para o teste um especialista em música que diz ser capaz de diferir as músicas de Haydn e Mozart. um bêbado que diz ser capaz de acertar os resultados no lançamento de uma moeda. Se ambos são submetidos a dez provas e acertam todas elas, então sua inferência baseada nos dados é a mesma. Será razoável? Motivação: Estudo da maturidade sexual do peixe-galo. Em estudos de população de peixes os cientistas estão interessados na relação entre o tamanho e a maturidade sexual da fêmea de uma determinada espécie de peixe. O interesse é determinar o tamanho em que cerca de 50 % das fêmeas alcançam a maturidade sexual, denominado tamanho de maturação. Os dados na Tabela 1 representam o tamanho e a maturidade sexual de 17 fêmeas capturadas na costa sul do Brasil. Considere y i o número de fêmeas maduras e n i o número total de fêmeas. p i é a probabilidade de que uma fêmea na classe i esteja madura. Motivação: Estudo da maturidade sexual do peixe-galo. Tabela 1: Número de fêmeas maduras por tamanho. Comprimento (cm) Total Maduras Suponha y i uma Binomial(n i, p i ) com p i a probabilidade de que uma fêmea na classe i esteja madura. x i é o ponto médio da classe i. O modelo logístico é dado por ( ) pi log = β 0 + β 1 (x i x) 1 p i Motivação: Estudo da maturidade sexual do peixe-galo. A quantidade principal de interesse é LT 50 = β 0 β 1 + x, obtida quando substitui-se p i por 0.5. Motivação: Estudo da maturidade sexual do peixe-galo. A quantidade principal de interesse é LT 50 = β 0 β 1 + x, obtida quando substitui-se p i por 0.5. A análise Bayesiana resulta na obtenção da distribuição de probabilidade associada a LT 50. Esta distribuição de probabilidade representa a incerteza a posterior sobre a quantidade de interesse. A partir da distribuição a posterior, pode-se obter uma estimação pontual igual a 28 cm e um intervalo, de probabilidade 0.95, igual a (22.65 ; 35.25). Motivação: Estudo da maturidade sexual do peixe-galo. LT 50 depende de dois parâmetros desconhecidos β 0 e β 1, os quais também possuem uma distribuição de probabilidade a posterior. Iniciamos com uma medida de probabilidade a priori f(β 0, β 1 ), por exemplo, normal bivariada. Motivação: Estudo da maturidade sexual do peixe-galo. LT 50 depende de dois parâmetros desconhecidos β 0 e β 1, os quais também possuem uma distribuição de probabilidade a posterior. Iniciamos com uma medida de probabilidade a priori f(β 0, β 1 ), por exemplo, normal bivariada. Para obter a medida a posterior utilizamos a fórmula de Bayes f(β 0, β 1 y) = f(y β 0, β 1 )f(β 0, β 1 ), f(y) onde f(y β 0, β 1 ) é a probabilidade conjunta de y 1, y 2,..., y k supondo os parâmetros conhecidos. No nosso caso, esta probabilidade é o produto de binomias. Motivação: Estudo da maturidade sexual do peixe-galo. LT 50 depende de dois parâmetros desconhecidos β 0 e β 1, os quais também possuem uma distribuição de probabilidade a posterior. Iniciamos com uma medida de probabilidade a priori f(β 0, β 1 ), por exemplo, normal bivariada. Para obter a medida a posterior utilizamos a fórmula de Bayes f(β 0, β 1 y) = f(y β 0, β 1 )f(β 0, β 1 ), f(y) onde f(y β 0, β 1 ) é a probabilidade conjunta de y 1, y 2,..., y k supondo os parâmetros conhecidos. No nosso caso, esta probabilidade é o produto de binomias. A quantidade f(y) é a distribuição marginal e é obtida pela integração do numerador. Não existe solução anaĺıtica e algoritmos numéricos são necessários. Motivação: Estudo da maturidade sexual do peixe-galo. Sob a abordagem clássica os parâmetros podem ser estimados utilizando-se os estimadores de máxima verossimilhança e a teoria assintótica normal. As estimativas pontuais, e por intervalo, de máxima verossimilhança de β 1 são e ( ; ), com confiança de 95 %. Motivação: Estudo da maturidade sexual do peixe-galo. Sob a abordagem clássica os parâmetros podem ser estimados utilizando-se os estimadores de máxima verossimilhança e a teoria assintótica normal. As estimativas pontuais, e por intervalo, de máxima verossimilhança de β 1 são e ( ; ), com confiança de 95 %. Sob a abordagem Bayesiana, o intervalo de credibilidade é (0.112 ; 0.795), com probabilidade 95 %. Motivação: Estudo da maturidade sexual do peixe-galo. Sob a abordagem clássica os parâmetros podem ser estimados utilizando-se os estimadores de máxima verossimilhança e a teoria assintótica normal. As estimativas pontuais, e por intervalo, de máxima verossimilhança de β 1 são e ( ; ), com confiança de 95 %. Sob a abordagem Bayesiana, o intervalo de credibilidade é (0.112 ; 0.795), com probabilidade 95 %. Esta diferença justifica-se pela assimetria observada na distribuição a posteriori. Motivação: Estudo da maturidade sexual do peixe-galo. Sob a abordagem clássica os parâmetros podem ser estimados utilizando-se os estimadores de máxima verossimilhança e a teoria assintótica normal. As estimativas pontuais, e por intervalo, de máxima verossimilhança de β 1 são e ( ; ), com confiança de 95 %. Sob a abordagem Bayesiana, o intervalo de credibilidade é (0.112 ; 0.795), com probabilidade 95 %. Esta diferença justifica-se pela assimetria observada na distribuição a posteriori. Enquanto que o intervalo clássico indica que β 1 pode ser zero, a distribuição a posteriori indica claramente um valor positivo. O modelo paramétrico probabiĺıstico. Uma medida de probabilidade P é definida em um espaço (X, A), onde A é uma sigma álgebra de elementos mensuráveis. O modelo paramétrico probabiĺıstico. Uma medida de probabilidade P é definida em um espaço (X, A), onde A é uma sigma álgebra de elementos mensuráveis. Um espaço paramétrico estatístico é um conjunto (família) de medidas de probabilidade, associadas a um vetor aleatório X, indexadas por um parâmetro θ, (X, A, P θ ), θ O modelo paramétrico probabiĺıstico. Uma medida de probabilidade P é definida em um espaço (X, A), onde A é uma sigma álgebra de elementos mensuráveis. Um espaço paramétrico estatístico é um conjunto (família) de medidas de probabilidade, associadas a um vetor aleatório X, indexadas por um parâmetro θ, (X, A, P θ ), θ Sob o ponto de vista Bayesiano é preciso definir uma medida de probabilidade a prior para θ, (Θ, B, π) O modelo paramétrico binomial. Sob certas suposições, é possível definir uma medida de probabilidade conjunta para X e θ. Usa-se a fórmula de Bayes para obter a medida de probabilidade condicional de θ dado o resultado da amostra X = x P (X = x θ)f(θ) f(θ x) = P (X = x θ)f(θ) Θ f(x θ)f(θ) f(θ x) = f(x θ)f(θ) dθ Θ O modelo paramétrico binomial Exemplo 1: O modelo binomial. X θ, n Bin(n, θ), 0 θ 1 e n inteiro. Suponha n conhecido, é preciso definir uma medida de probabilidade para θ. Prior 1: θ f(θ) O modelo paramétrico binomial Exemplo 1: O modelo binomial. X θ, n Bin(n, θ), 0 θ 1 e n inteiro. Suponha n conhecido, é preciso definir uma medida de probabilidade para θ. Prior 1: θ f(θ) Para n = 2 a posterior é θ f(θ x = 0) f(θ x = 1) f(θ x = 2) O modelo paramétrico binomial. Prior 2: θ Beta(a, b). Então sua função de densidade é f(θ) = Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1, a 0 b 0. O modelo paramétrico binomial. Prior 2: θ Beta(a, b). Então sua função de densidade é f(θ) = Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1, a 0 b 0. Para obter a marginal f(x) integra-se em θ f(x) = 1 0 f(θ)c n,x (θ) x (1 θ) n x dθ. O modelo paramétrico binomial. Prior 2: θ Beta(a, b). Então sua função de densidade é f(θ) = Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1, a 0 b 0. Para obter a marginal f(x) integra-se em θ f(x) = 1 0 f(θ)c n,x (θ) x (1 θ) n x dθ. Observe que não há necessidade de preocupar-se com a quantidade C n,x (constante) pois f(θ x) = θa+x 1 (1 θ) b+n x 1 1 dθ (θ) a+x (1 θ) b+n x 1 0 O modelo paramétrico binomial. Podemos mostrar que a distribuição a posteriori é θ x Beta(a + x, b + n x). O modelo paramétrico binomial. Podemos mostrar que a distribuição a posteriori é θ x Beta(a + x, b + n x). Se as distribuições a priori e a posteriori estão na mesma classe de distribuições, dizemos que são conjugadas em relação ao modelo estatístico X θ. O modelo paramétrico binomial. Podemos mostrar que a distribuição a posteriori é θ x Beta(a + x, b + n x). Se as distribuições a priori e a posteriori estão na mesma classe de distribuições, dizemos que são conjugadas em relação ao modelo estatístico X θ. Como escolher a e b? Se a = b temos uma distribuição simétrica. O modelo paramétrico binomial. Podemos mostrar que a distribuição a posteriori é θ x Beta(a + x, b + n x). Se as distribuições a priori e a posteriori estão na mesma classe de distribuições, dizemos que são conjugadas em relação ao modelo estatístico X θ. Como escolher a e b? Se a = b temos uma distribuição simétrica. Se a = b = 1 temos uma uniforme. O modelo paramétrico binomial. Podemos mostrar que a distribuição a posteriori é θ x Beta(a + x, b + n x). Se as distribuições a priori e a posteriori estão na mesma classe de distribuições, dizemos que são conjugadas em relação ao modelo estatístico X θ. Como escolher a e b? Se a = b temos uma distribuição simétrica. Se a = b = 1 temos uma uniforme. A média e a variância a priori são E[θ] = a a+b V ar[θ] = ab (a+b) 2 (a+b+1). Gráficos da densidade Beta Densidades Beta simetricas densidade x Gráficos da densidade Beta Densidades Beta assimetricas a b densidade x O modelo paramétrico binomial. Usando o seu conhecimento para construir sua a priori. Qual o significado de θ? Informações a priori θ ( ) ( ) ( ) ( ) Prob Densidade a priori : θ Beta(3, 3) θ ( ) ( ) ( ) ( ) Pbeta Gráficos das densidades a posteriori com n=2 e priori Beta(3,3) Priori e Posteriori, n=2, x=0 densidade x Priori e Posteriori, n=2, x=1 densidade x Priori e Posteriori, n=2, x=2 densidade x Gráficos das densidades a posteriori com n=50 e priori Beta(3,3) Priori e Posteriori, n=50, x=0 densidade x Priori e Posteriori, n=50, x=25 densidade x Priori e Posteriori, n=50, x=50 densidade x Gráficos das densidades a posteriori com n=50 e priori Beta(50,50) Priori e Posteriori, n=50, x=0 (Priori II) densidade x Priori e Posteriori, n=50, x=25 (Priori II) densidade x Priori e Posteriori, n=50, x=50 (Priori II) densidade x Referências. Introdução Kinas, P.G. e Andrade, H.A. (2010). Introdução à análise bayesiana (com R). Editora: maisqnada. Loschi, R. (2013). Estadística Bayesiana algunos de sua aspectos. Minicurso no Congreso Anual de la Sociedad Argentina de Estadística, Mendoza
We Need Your Support
Thank you for visiting our website and your interest in our free products and services. We are nonprofit website to share and download documents. To the running of this website, we need your help to support us.

Thanks to everyone for your continued support.

No, Thanks