====== O que a seleção de modelos e as ideias de Thomas Chamberlin têm em comum? ======
=== Alexandre V. Palaoro ===
* Pós-Graduação em Biodiversidade Animal, Universidade Federal de Santa Maria
* alexandre.palaoro@gmail.com
===== Motivação =====
Pode-se dizer que a seleção de modelos ajustados por máxima verossimilhança é a forma de análise de dados que Thomas Chamberlin [1] tinha em mente quando escreveu sobre o método de hipóteses múltiplas. Nos vários artigos, Chamberlin discorre sobre como confrontar múltiplas hipóteses auxiliaram no processo de avanço de determinadas áreas da ciência, como, por exemplo, a biologia molecular e a física, e ao mesmo tempo evitam que pesquisadores tenham "hipóteses de estimação". Confrontar diferentes hipóteses sob a mesma ótica, ou axioma, faz com que diversas hipóteses possam ser refutadas de uma só vez, muitas vezes sem a necessidade de múltiplos experimentos e muitos testes que podem encarecer ou tomar muito mais tempo do que devido. É justamente isso que o Critério de Informação de Akaike (AIC) faz. O pesquisador postula suas hipóteses (e.g. as variáveis devem se relacionar de forma linear ou exponencial), e as compara diretamente com o AIC [2]. Assim, o modelo com maior força de evidência é selecionado como mais verossímil entre os modelos propostos. Quando isso ocorre, o pesquisador comparou diversas hipóteses de uma só vez, algo impossível na análise frequentista. Contudo, nem sempre há essa certeza. Muitas vezes os modelos não possuem forças de evidência diferentes o suficiente para serem categorizados como mais verossímeis que os outros. Quando isso acontece, ou a hipótese está mal formulada, ou os dados não possuem informação suficiente para corroborar um modelo em relação ao outro. E, apesar dessa incerteza, agora o pesquisador pode pensar em uma maneira para atacar um problema específico da hipótese. Com isso, o pesquisador irá aderir as ideias de Chamberlin mesmo sem saber, pois ele estará comparando diversas hipóteses simultaneamente, e pensando em desenhos experimentais para atacar problemas específicos.
O tipo de análise mais frequente na biologia, contudo, aparentemente não se utiliza da ideia de Chamberlin. A estatística frequentista testa apenas uma hipótese (i.e. a hipótese nula), a qual não é a hipótese de interesse, enquanto a hipótese de interesse (i.e. a hipótese alternativa) só é assumida como verdade caso a nula seja refutada. Assim, além de restringir o número de hipóteses testadas para duas hipóteses similares, o cientista também não testa especificamente o fenômeno/teoria que quer demonstrar. De forma simples, a análise frequentista percorre um caminho estatisticamente tortuoso para chegar no seu objetivo, e muitas pessoas podem dizer que esse tipo de análise só tangencia o objetivo proposto [2]. Nesse ensaio, utilizarei um exemplo de análise comportamental para demonstrar as vantagens da seleção de modelos utilizando o a seleção de modelos por AIC em relação a análise frequentista.
===== Exemplo =====
Para esse exemplo, utilizarei dados do início do meu doutorado com confrontos agonísticos entre pares de machos de uma espécie de crustáceo decápodo do Sul do Brasil (//Aegla longirostri//). O objetivo é determinar quais características morfológicas e de desempenho de armamento aumentam a probabilidade de vitória em um confronto. Testaremos a influência das seguintes características: tamanho corporal (cc), comprimento do armamento (cp), altura do armamento (ap) e força do armamento (icf). Como os confrontos são analisados em duplas, sorteamos um indivíduo da dupla para fazer essa análise, e subtraímos suas medidas com as medidas do oponente (i.e. indivíduo 1 menos indivíduo 2 para todas as medidas). Logo, quanto mais positivo o valor, maior o indivíduo 1 em relação ao indivíduo 2, e quanto mais negativo o valor, maior o indivíduo 2 em relação ao 1. A variável resposta (i.e. resultado do confronto) é uma variável binária, vencedor do confronto (1) e/ou perdedor do confronto (0), e por isso utilizaremos regressões logísticas no exemplo.
===== Análise frequentista =====
Utilizaremos uma regressão múltipla (ou uma regressão linear simples com múltiplas preditoras) para testar quais variáveis influenciam significativamente o modelo. Para selecionar as variáveis de interesse, pesquisadores normalmente utilizam algoritmos de seleção de variáveis (//stepwise modelling//) que consistem em ajustar um modelo saturado e ir retirando os fatores (ou o processo inverso: ajustar um modelo simples e ir adicionando variáveis) [3]. Contudo, esses procedimentos produzem muitos vieses. Primeiramente, cada teste realizado ao retirar/adicionar uma variável é um teste de hipótese. Por isso, a probabilidade de ocorrência de erros tipo I é inflada justamente por esta fazer diversos testes de hipóteses com o mesmo conjunto de dados sob o axioma frequentista [4]. Segundo, esses algoritmos geralmente selecionam modelos de forma a maximizar o R2, o que pode inflar o R2 e selecionar variáveis que não fazem sentido biológico [5]. Por último, a ordem de entrada (ou deleção) dos parâmetros influencia no modelo final [6]. Logo, a maneira de se começar o teste influencia no modelo final, o que é um viés tremendo da análise, deixa margem a subjetividade, e pode resultar em conclusões espúrias.
Aqui, utilizaremos a estratégia utilizada durante todo o livro do Crawley [3]: ajustar um modelo saturado e ir retirando primeiro as interações e depois as variáveis preditoras. No código abaixo demonstro como a análise torna-se subjetiva a partir de determinando ponto deixando alguns pontos comentados (comentários vem após o caractere #).
> rhp<-read.csv("exemplo-ensaio.csv",h=T,sep=';')
> head(rhp)
cc residcp residap residicf winner
1 0.64 0.294391213 0.4550592 0.027043719 1
2 0.61 -0.335345875 -0.3164279 -0.018204509 0
3 -0.36 0.003154943 -0.2078458 0.028965588 0
4 -0.03 -0.429737088 -0.1214872 0.000111472 0
5 -0.39 -0.376582145 0.2606670 -0.013296643 1
6 1.34 -1.721743398 -0.6669072 -0.042343508 1
> model.full<-glm(winner~cc*residcp*residap*residicf,binomial,data=rhp) ##ajuste do modelo saturado
> summary(model.full)
Call:
glm(formula = winner ~ cc * residcp * residap * residicf, family = binomial,
data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-2.5071 -0.4486 0.0000 0.5376 1.8324
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.3566 0.7598 0.469 0.6388
cc 2.6243 1.9019 1.380 0.1676
residcp 0.1090 1.1533 0.095 0.9247
residap 4.8871 3.5470 1.378 0.1683
residicf 37.6054 51.5076 0.730 0.4653
cc:residcp 2.9790 2.5699 1.159 0.2464
cc:residap -12.4082 7.1933 -1.725 0.0845 .
residcp:residap 1.0469 6.9224 0.151 0.8798
cc:residicf 191.8018 106.5045 1.801 0.0717 .
residcp:residicf 95.2559 85.1089 1.119 0.2630
residap:residicf -208.3921 110.5150 -1.886 0.0593 .
cc:residcp:residap -4.6832 10.6890 -0.438 0.6613
cc:residcp:residicf 203.0438 196.6379 1.033 0.3018
cc:residap:residicf -104.0971 197.5473 -0.527 0.5982
residcp:residap:residicf -61.1072 128.5983 -0.475 0.6347
cc:residcp:residap:residicf -188.7201 116.7443 -1.617 0.1060
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 32.306 on 32 degrees of freedom
AIC: 64.306
Number of Fisher Scoring iterations: 9
> model2<-update(model.full,~.-cc:residcp:residap:residicf) ##começo retirando as variáveis de interação de quarto grau
> summary(model2)
Call:
glm(formula = winner ~ cc + residcp + residap + residicf + cc:residcp +
cc:residap + residcp:residap + cc:residicf + residcp:residicf +
residap:residicf + cc:residcp:residap + cc:residcp:residicf +
cc:residap:residicf + residcp:residap:residicf, family = binomial,
data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-2.15667 -0.52711 0.00004 0.57062 1.94746
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 8.903e-04 7.148e-01 0.001 0.9990
cc 2.720e+00 1.942e+00 1.400 0.1614
residcp 2.958e-01 1.144e+00 0.259 0.7959
residap 6.100e+00 3.457e+00 1.765 0.0776 .
residicf 1.777e+01 4.791e+01 0.371 0.7107
cc:residcp 2.254e+00 2.469e+00 0.913 0.3612
cc:residap -1.139e+01 6.819e+00 -1.671 0.0948 .
residcp:residap 3.366e+00 6.733e+00 0.500 0.6171
cc:residicf 1.303e+02 9.422e+01 1.383 0.1666
residcp:residicf 7.189e+01 7.935e+01 0.906 0.3649
residap:residicf -1.865e+02 1.105e+02 -1.687 0.0915 .
cc:residcp:residap -4.014e+00 9.864e+00 -0.407 0.6840
cc:residcp:residicf 1.768e+02 1.804e+02 0.980 0.3270
cc:residap:residicf -1.265e+02 1.864e+02 -0.679 0.4974
residcp:residap:residicf -1.188e+02 1.208e+02 -0.983 0.3255
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 35.415 on 33 degrees of freedom
AIC: 65.415
Number of Fisher Scoring iterations: 8
> model3<-update(model2,~.-residcp:residap:residicf)
> model3<-update(model3,~.-cc:residcp:residap)
> model3<-update(model3,~.-cc:residcp:residicf)
> model3<-update(model3,~.-cc:residap:residicf) ##retirei todas as variáveis de interação de terceira ordem
> summary(model3)
Call:
glm(formula = winner ~ cc + residcp + residap + residicf + cc:residcp +
cc:residap + residcp:residap + cc:residicf + residcp:residicf +
residap:residicf, family = binomial, data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-2.08128 -0.77576 0.00152 0.69086 1.77535
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -0.30775 0.63696 -0.483 0.6290
cc 2.13739 1.13343 1.886 0.0593 .
residcp -0.07444 0.98070 -0.076 0.9395
residap 5.09715 2.73435 1.864 0.0623 .
residicf -34.85089 31.90875 -1.092 0.2747
cc:residcp 0.55971 1.76659 0.317 0.7514
cc:residap -8.46827 4.82442 -1.755 0.0792 .
residcp:residap -2.82548 5.18024 -0.545 0.5855
cc:residicf 106.64228 67.65544 1.576 0.1150
residcp:residicf 98.27909 66.66674 1.474 0.1404
residap:residicf -53.23904 59.61328 -0.893 0.3718
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 39.889 on 37 degrees of freedom
AIC: 61.889
Number of Fisher Scoring iterations: 8
> model4<-update(model3,~.-residap:residicf)
> model4<-update(model4,~.-residcp:residicf)
> model4<-update(model4,~.-cc:residicf)
> model4<-update(model4,~.-residcp:residap)
> model4<-update(model4,~.-cc:residap)
> model4<-update(model4,~.-cc:residcp) ##retirei todas as variáveis de interação de segunda ordem
> summary(model4)
Call:
glm(formula = winner ~ cc + residcp + residap + residicf, family = binomial,
data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.96317 -0.84158 0.07625 0.89531 1.84406
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -0.04602 0.36469 -0.126 0.8996
cc 1.10533 0.51435 2.149 0.0316 *
residcp -0.26094 0.67409 -0.387 0.6987
residap 3.38389 1.92797 1.755 0.0792 .
residicf -22.82807 21.99361 -1.038 0.2993
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 48.522 on 43 degrees of freedom
AIC: 58.522
Number of Fisher Scoring iterations: 6
> model5.a<-update(model4,~.-residcp) ##aqui começa a ficar mais abstrato. Retirei todas as interações, e o próximo
##passo é retirar as variáveis preditoras. Porém, com qual começar? Nesse exemplo, retirei as três variáveis uma de
##cada vez para testar se ocorria alguma diferença
> summary(model5.a)
Call:
glm(formula = winner ~ cc + residap + residicf, family = binomial,
data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.96280 -0.85466 0.06509 0.93314 1.88041
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -0.06335 0.36102 -0.175 0.8607
cc 1.19708 0.48209 2.483 0.0130 *
residap 3.10783 1.76794 1.758 0.0788 .
residicf -22.57598 21.93488 -1.029 0.3034
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 48.673 on 44 degrees of freedom
AIC: 56.673
Number of Fisher Scoring iterations: 6
> model5.b<-update(model4,~.-residicf)
> summary(model5.b)
Call:
glm(formula = winner ~ cc + residcp + residap, family = binomial,
data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.80431 -0.87733 0.08181 0.94072 1.98613
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.05349 0.34598 0.155 0.8771
cc 1.10387 0.52173 2.116 0.0344 *
residcp -0.24717 0.67063 -0.369 0.7125
residap 1.88396 1.18945 1.584 0.1132
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 49.672 on 44 degrees of freedom
AIC: 57.672
Number of Fisher Scoring iterations: 6
> model5.c<-update(model4,~.-residap)
> summary(model5.c)
Call:
glm(formula = winner ~ cc + residcp + residicf, family = binomial,
data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.5592 -1.0279 0.1118 1.0813 1.9536
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.07166 0.34001 0.211 0.8331
cc 1.04896 0.49093 2.137 0.0326 *
residcp 0.20839 0.60450 0.345 0.7303
residicf 7.19179 13.29175 0.541 0.5885
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 52.097 on 44 degrees of freedom
AIC: 60.097
Number of Fisher Scoring iterations: 6
> model6.a<-update(model5.a,~.-residicf) ##como não mudou nada, vou deixar a altura do armamento por estar mais
##próximo da significância (isso é algo muito subjetivo...)
> summary(model6.a)
Call:
glm(formula = winner ~ cc + residap, family = binomial, data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.76831 -0.88066 0.06804 0.95081 2.02133
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.03707 0.34184 0.108 0.9136
cc 1.19601 0.48320 2.475 0.0133 *
residap 1.64998 1.00108 1.648 0.0993 .
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 49.809 on 45 degrees of freedom
AIC: 55.809
Number of Fisher Scoring iterations: 6
> model6.b<-update(model5.c,~.-residicf)
> summary(model6.b)
Call:
glm(formula = winner ~ cc + residcp, family = binomial, data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.5803 -1.0534 0.1193 1.0518 1.8817
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.0418 0.3346 0.125 0.9006
cc 1.0341 0.4769 2.168 0.0301 *
residcp 0.3591 0.5289 0.679 0.4972
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 52.393 on 45 degrees of freedom
AIC: 58.393
Number of Fisher Scoring iterations: 6
> model7<-update(model6.a,~.-residap) ##a altura do armamento não atingiu significância, então retirei do modelo.
> summary(model7)
Call:
glm(formula = winner ~ cc, family = binomial, data = rhp)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.5413 -1.0682 0.1659 1.0794 1.8123
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 0.0766 0.3308 0.232 0.8169
cc 0.8691 0.3524 2.466 0.0136 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 66.208 on 47 degrees of freedom
Residual deviance: 52.874 on 46 degrees of freedom
AIC: 56.874
Number of Fisher Scoring iterations: 5
Foram 10 passos para alcançar o modelo com melhor ajuste. Ou seja, inflou a probabilidade de erro tipo I em 10 vezes. Além disso, quando todas as interações foram retiradas, a eleminação de variáveis preditoras torna-se subjetiva, pois não existe como discriminar as variáveis mais das menos importantes. No fim, o modelo mínimo indica que apenas o tamanho corporal influencia significativamente a probabilidade de vitória (i.e. quanto maior um indivíduo em relação ao outro, maior é a sua chance de vencer).
===== Seleção de Modelos com AIC =====
A seleção de modelos utilizando o AIC é uma forma mais intuitiva, e com menos vieses, que a seleção de modelos demonstrada acima. Primeiramente, o AIC utiliza o valor de máxima verossimilhança para decidir qual modelo é mais provável [2]. Logo, o AIC ranqueia seus modelos utilizando-se da força de evidência de cada modelo (i.e. probabilidade do modelo A ocorrer dividido pela probabilidade do modelo B ocorrer, ou pA(x)/pB(x)), além de punir os modelos pelo seu número de parâmetros [2]. Ao utilizar-se da máxima verossimilhança, o AIC torna-se mais intuitivo do que a análise frequentista - o melhor modelo será aquele que possui a maior força de evidência em relação aos outros. Segundo, o problema de múltiplos testes deixa de existir, pois cada modelo é visto como uma hipótese a ser comparada com outras hipóteses (i.e. outros modelos). Terceiro, não importa a ordem de entrada dos modelos, nem a forma como eles estão formulados, o resultado será o mesmo [2]. Quarto, como cada modelo é considerado uma hipótese, o pesquisador tem a liberdade de usar a literatura para formular os modelos. Por isso, ao invés de comparar todos os modelos possíveis, irei listar apenas aqueles com evidências na literatura:
Modelo 1 - Apenas tamanho corporal [7];\\
Modelo 2 - Apenas comprimento do armamento [7];\\
Modelo 3 - Apenas altura do armamento [7];\\
Modelo 4 - Apenas desempenho do armamento [7];\\
Modelo 5 a 7 - Tamanho corporal com adição de cada variável do armamento separadamente [8];\\
Modelo 8 - Apenas as variáveis do armamento [8];\\
Modelo 9 - Todas as variáveis [8].\\
Para ranquearmos os modelos, calculamos o AIC (-2*log máxima verossimilhança + 2*número de parâmetros do modelo). O modelo com o menor valor de AIC é considerado o melhor, e então, subtraímos o valor do AIC de um modelo dos modelos com o valor do AIC do melhor modelo, obtendo assim uma medida relativa entre os modelos (i.e. ΔAIC; [2]). Esse valor relativo é importante por dois motivos: 1. Ele nos mostra que a nossa inferência pode ser feita apenas para os modelos que comparamos, mostrando-nos que o AIC é uma medida relativa entre as hipóteses que elencamos, e não todas as hipóteses que podem existir [9]; 2. Ele nos mostra a diferença no poder de evidência entre modelos. Contudo, precisamos saber quando um modelo tem poder de evidência suficiente para descartamos o(s) outro(s). Convencionou-se que um ΔAIC maior que dois é o suficiente para descartar o modelo, pois um valor maior que dois significa que o modelo é 7,3 vezes mais provável que outro [9].
Nesse exemplo utilizarei o AICc, e não o AIC. O AICc possui uma correção para amostras pequenas, as quais não irei detalhar em profundidade aqui, pois não é o escopo do texto. Para mais informações, veja [2] e/ou [10].
> modelo1<-glm(winner~cc,binomial,data=rhp)
> modelo2<-glm(winner~residcp,binomial,data=rhp)
> modelo3<-glm(winner~residap,binomial,data=rhp)
> modelo4<-glm(winner~residicf,binomial,data=rhp)
> modelo5<-glm(winner~cc+residcp,binomial,data=rhp)
> modelo6<-glm(winner~cc+residap,binomial,data=rhp)
> modelo7<-glm(winner~cc+residicf,binomial,data=rhp)
> modelo8<-glm(winner~residcp+residap+residicf,binomial,data=rhp)
> modelo9<-glm(winner~cc+residcp+residap+residicf,binomial,data=rhp)
> AICctab(modelo1,modelo2,modelo3,modelo4,modelo5,modelo6,modelo7,modelo8,
+ modelo9,nobs=length(rhp$winners),weights=T,logLik=T,base=T)
logLik AICc dLogLik dAICc df weight
modelo9 -24.3 48.5 8.8 0.0 5 0.5143
modelo6 -24.9 49.8 8.2 1.3 3 0.2703
modelo7 -26.1 52.2 7.0 3.7 3 0.0811
modelo5 -26.2 52.4 6.9 3.9 3 0.0743
modelo1 -26.4 52.9 6.7 4.4 2 0.0584
modelo8 -30.2 60.5 2.9 12.0 4 0.0013
modelo2 -32.7 65.4 0.4 16.8 2 <0.001
modelo3 -32.8 65.7 0.3 17.2 2 <0.001
modelo4 -33.1 66.2 0.0 17.7 2 <0.001
| ^Log Verossimilhança Negativa ^AICc ^ΔAICCc ^Graus de liberdade ^peso ^
^Modelo 9 | -24.3 | 48.5 | 0 | 5 | 0.5143 |
^Modelo 6 | -24.9 | 49.8 | 1.3 | 3 | 0.2703 |
^Modelo 7 | -26.1 | 52.2 | 3.7 | 3 | 0.0811 |
^Modelo 5 | -26.2 | 52.4 | 3.9 | 3 | 0.0743 |
^Modelo 1 | -26.4 | 52.9 | 4.4 | 2 | 0.0584 |
^Modelo 8 | -30.2 | 60.5 | 12.0 | 4 | 0.0013 |
^Modelo 2 | -32.7 | 65.4 | 16.8 | 2 | <0.001 |
^Modelo 3 | -32.8 | 65.7 | 17.2 | 2 | <0.001 |
^Modelo 4 | -33.1 | 66.2 | 17.7 | 2 | <0.001 |
A seleção de modelos nos indica que o modelo saturado e o modelo com tamanho corporal e altura do armamento são os melhores. Porém, não há força de evidência para dizer qual desses dois é o melhor.
===== Conclusão =====
Os resultados das duas análises são bem distintos. Com a análise frequentista, eu poderia inferir que apenas o tamanho corporal do animal influencia na probabilidade vitória. Na seleção por AIC, por sua vez, eu poderia inferir que todas as variáveis afetam a probabilidade de vitória, e que o tamanho corporal e a altura do armamento são as variáveis mais influentes, dado que estão presentes nos dois modelos mais verossímeis. Por isso, a escolha das análises influência nas conclusões do estudo.
A análise frequentista se mostrou muito subjetiva, pois a retirada de termos dos modelos é extremamente subjetiva. Enquanto que a análise de AIC é mais intuitiva, e podemos utilizar informações prévias da literatura para diminuirmos o número de modelos, além de testar todas as hipóteses simultaneamente. No fim, a ideia de Chamberlin de elencar múltiplas hipóteses e compará-las diretamente se mostra mais efetiva do que a análise frequentista, que segue por caminhos tortuosos, e muitas vezes subjetivos, para chegar a um resultado.
===== Referências bibliográficas =====
[1] Chamberlin, T. C. (1890). The method of multiple working hypotheses. Science, 15, 92-96.
[2] Burnham, K. P. & Anderson, D. R. (2002). Model selection and multimodel inference: a practical information-theoretic approach, 2nd ed. Springer, New York.
[3] Crawley, M. J. (2013). The R book, 2nd ed. Wiley, Chichester.
[4] Wilkinson, L. (1979). Tests of significance in stepwise regression. Psychological Bulletin, 86, 168-174.
[5] Whittingham, M. J.; Stephens, P. A.; Bradbury, R. B. & Freckelton R. P. (2006). Why do we still use stepwise modelling in ecology and behaviour? Journal of Animal Ecology, 75, 1182-1189.
[6] Derksen, S. & Keselman, H. J. (1992). Backward, forward and stepwise automated subset selection algorithms: frequency of obtaining authentic and noise variables. British Journal of Mathematical and Statistical Psychology, 45, 265-282.
[7] Briffa, M. & Sneddon, L. U. (2007). Physiological constraints on contest behaviour. Functional Ecology, 21, 627-637.
[8] Arnott, G. & Elwood, R. W. (2009). Assessment of fighting ability in animal contests. Animal Behaviour, 77, 991-1004.
[9] Batista, J.L.F. (2009). Verossimilhança e Máxima Verossimilhança. Centro de Métodos Quantitativos, Departamento de Ciências Florestais, Escola Superior de Agricultura “Luiz de Queiroz”, Universidade de São Paulo, Campus Piracicaba.
[10] Symonds, M. R. E. & Moussalli, A. (2011). A brief guide to model selection, multimodel inference and model averaging in behavioural ecology using Akaike’s information criterion. Behavioral Ecology and Sociobiology, 65, 13–21.
===== Citação =====
Este ensaio é um produto de disciplina da pós-graduação da Universidade de São Paulo. Para citá-lo:
Palaoro, A.V. 2014. O que a seleção de modelos e as ideias de Thomas Chamberlin tem em comum?. In: Prado , P.I & Batista, J.L.F. Modelagem Estatística para Ecologia e Recursos Naturais. Universidade de São Paulo. url: http://cmq.esalq.usp.br/BIE5781.