Ferramentas do usuário

Ferramentas do site


historico:2014:ensaios:palaoro

Diferenças

Aqui você vê as diferenças entre duas revisões dessa página.

Link para esta página de comparações

Ambos lados da revisão anteriorRevisão anterior
Próxima revisão
Revisão anterior
historico:2014:ensaios:palaoro [2014/10/23 17:18] alexandre.palaorohistorico:2014:ensaios:palaoro [2022/11/24 14:12] (atual) – edição externa 127.0.0.1
Linha 1: Linha 1:
 +====== O que a seleção de modelos e as ideias de Thomas Chamberlin têm em comum? ======
 +=== Alexandre V. Palaoro ===
 + * Pós-Graduação em Biodiversidade Animal, Universidade Federal de Santa Maria
 + * alexandre.palaoro@gmail.com
  
 +===== Motivação =====
 +
 +Pode-se dizer que a seleção de modelos ajustados por máxima verossimilhança é a forma de análise de dados que Thomas Chamberlin [1] tinha em mente quando escreveu sobre o método de hipóteses múltiplas. Nos vários artigos, Chamberlin discorre sobre como confrontar múltiplas hipóteses auxiliaram no processo de avanço de determinadas áreas da ciência, como, por exemplo, a biologia molecular e a física, e ao mesmo tempo evitam que pesquisadores tenham "hipóteses de estimação". Confrontar diferentes hipóteses sob a mesma ótica, ou axioma, faz com que diversas hipóteses possam ser refutadas de uma só vez, muitas vezes sem a necessidade de múltiplos experimentos e muitos testes que podem encarecer ou tomar muito mais tempo do que devido. É justamente isso que o Critério de Informação de Akaike (AIC) faz. O pesquisador postula suas hipóteses (e.g. as variáveis devem se relacionar de forma linear ou exponencial), e as compara diretamente com o AIC [2]. Assim, o modelo com maior força de evidência é selecionado como mais verossímil entre os modelos propostos. Quando isso ocorre, o pesquisador comparou diversas hipóteses de uma só vez, algo impossível na análise frequentista. Contudo, nem sempre há essa certeza. Muitas vezes os modelos não possuem forças de evidência diferentes o suficiente para serem categorizados como mais verossímeis que os outros. Quando isso acontece, ou a hipótese está mal formulada, ou os dados não possuem informação suficiente para corroborar um modelo em relação ao outro. E, apesar dessa incerteza, agora o pesquisador pode pensar em uma maneira para atacar um problema específico da hipótese. Com isso, o pesquisador irá aderir as ideias de Chamberlin mesmo sem saber, pois ele estará comparando diversas hipóteses simultaneamente, e pensando em desenhos experimentais para atacar problemas específicos. 
 +
 +O tipo de análise mais frequente na biologia, contudo, aparentemente não se utiliza da ideia de Chamberlin. A estatística frequentista testa apenas uma hipótese (i.e. a hipótese nula), a qual não é a hipótese de interesse, enquanto a hipótese de interesse (i.e. a hipótese alternativa) só é assumida como verdade caso a nula seja refutada. Assim, além de restringir o número de hipóteses testadas para duas hipóteses similares, o cientista também não testa especificamente o fenômeno/teoria que quer demonstrar. De forma simples, a análise frequentista percorre um caminho estatisticamente tortuoso para chegar no seu objetivo, e muitas pessoas podem dizer que esse tipo de análise só tangencia o objetivo proposto [2]. Nesse ensaio, utilizarei um exemplo de análise comportamental para demonstrar as vantagens da seleção de modelos utilizando o a seleção de modelos por AIC em relação a análise frequentista.
 +
 +===== Exemplo =====
 +
 +Para esse exemplo, utilizarei dados do início do meu doutorado com confrontos agonísticos entre pares de machos de uma espécie de crustáceo decápodo do Sul do Brasil (//Aegla longirostri//). O objetivo é determinar quais características morfológicas e de desempenho de armamento aumentam a probabilidade de vitória em um confronto. Testaremos a influência das seguintes características: tamanho corporal (cc), comprimento do armamento (cp), altura do armamento (ap) e força do armamento (icf). Como os confrontos são analisados em duplas, sorteamos um indivíduo da dupla para fazer essa análise, e subtraímos suas medidas com as medidas do oponente (i.e. indivíduo 1 menos indivíduo 2 para todas as medidas). Logo, quanto mais positivo o valor, maior o indivíduo 1 em relação ao indivíduo 2, e quanto mais negativo o valor, maior o indivíduo 2 em relação ao 1. A variável resposta (i.e. resultado do confronto) é uma variável binária, vencedor do confronto (1) e/ou perdedor do confronto (0), e por isso utilizaremos regressões logísticas no exemplo. 
 +
 +===== Análise frequentista =====
 +
 +Utilizaremos uma regressão múltipla (ou uma regressão linear simples com múltiplas preditoras) para testar quais variáveis influenciam significativamente o modelo. Para selecionar as variáveis de interesse, pesquisadores normalmente utilizam algoritmos de seleção de variáveis (//stepwise modelling//) que consistem em ajustar um modelo saturado e ir retirando os fatores (ou o processo inverso: ajustar um modelo simples e ir adicionando variáveis) [3]. Contudo, esses procedimentos produzem muitos vieses. Primeiramente, cada teste realizado ao retirar/adicionar uma variável é um teste de hipótese. Por isso, a probabilidade de ocorrência de erros tipo I é inflada justamente por esta fazer diversos testes de hipóteses com o mesmo conjunto de dados sob o axioma frequentista [4]. Segundo, esses algoritmos geralmente selecionam modelos de forma a maximizar o R<sup>2</sup>, o que pode inflar o R<sup>2</sup> e selecionar variáveis que não fazem sentido biológico [5]. Por último, a ordem de entrada (ou deleção) dos parâmetros influencia no modelo final [6]. Logo, a maneira de se começar o teste influencia no modelo final, o que é um viés tremendo da análise, deixa margem a subjetividade, e pode resultar em conclusões espúrias.
 +
 +Aqui, utilizaremos a estratégia utilizada durante todo o livro do Crawley [3]: ajustar um modelo saturado e ir retirando primeiro as interações e depois as variáveis preditoras. No código abaixo demonstro como a análise torna-se subjetiva a partir de determinando ponto deixando alguns pontos comentados (comentários vem após o caractere #).  
 +
 +<code>
 +> rhp<-read.csv("exemplo-ensaio.csv",h=T,sep=';')
 +> head(rhp)
 +     cc      residcp    residap     residicf winner
 +1  0.64  0.294391213  0.4550592  0.027043719      1
 +2  0.61 -0.335345875 -0.3164279 -0.018204509      0
 +3 -0.36  0.003154943 -0.2078458  0.028965588      0
 +4 -0.03 -0.429737088 -0.1214872  0.000111472      0
 +5 -0.39 -0.376582145  0.2606670 -0.013296643      1
 +6  1.34 -1.721743398 -0.6669072 -0.042343508      1
 +> model.full<-glm(winner~cc*residcp*residap*residicf,binomial,data=rhp) ##ajuste do modelo saturado
 +
 +> summary(model.full)
 +
 +Call:
 +glm(formula = winner ~ cc * residcp * residap * residicf, family = binomial, 
 +    data = rhp)
 +
 +Deviance Residuals: 
 +    Min       1Q   Median       3Q      Max  
 +-2.5071  -0.4486   0.0000   0.5376   1.8324  
 +
 +Coefficients:
 +                             Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)                    0.3566     0.7598   0.469   0.6388  
 +cc                             2.6243     1.9019   1.380   0.1676  
 +residcp                        0.1090     1.1533   0.095   0.9247  
 +residap                        4.8871     3.5470   1.378   0.1683  
 +residicf                      37.6054    51.5076   0.730   0.4653  
 +cc:residcp                     2.9790     2.5699   1.159   0.2464  
 +cc:residap                   -12.4082     7.1933  -1.725   0.0845 .
 +residcp:residap                1.0469     6.9224   0.151   0.8798  
 +cc:residicf                  191.8018   106.5045   1.801   0.0717 .
 +residcp:residicf              95.2559    85.1089   1.119   0.2630  
 +residap:residicf            -208.3921   110.5150  -1.886   0.0593 .
 +cc:residcp:residap            -4.6832    10.6890  -0.438   0.6613  
 +cc:residcp:residicf          203.0438   196.6379   1.033   0.3018  
 +cc:residap:residicf         -104.0971   197.5473  -0.527   0.5982  
 +residcp:residap:residicf     -61.1072   128.5983  -0.475   0.6347  
 +cc:residcp:residap:residicf -188.7201   116.7443  -1.617   0.1060  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 32.306  on 32  degrees of freedom
 +AIC: 64.306
 +
 +Number of Fisher Scoring iterations: 9
 +
 +> model2<-update(model.full,~.-cc:residcp:residap:residicf) ##começo retirando as variáveis de interação de quarto grau
 +> summary(model2)
 +
 +Call:
 +glm(formula = winner ~ cc + residcp + residap + residicf + cc:residcp + 
 +    cc:residap + residcp:residap + cc:residicf + residcp:residicf + 
 +    residap:residicf + cc:residcp:residap + cc:residcp:residicf + 
 +    cc:residap:residicf + residcp:residap:residicf, family = binomial, 
 +    data = rhp)
 +
 +Deviance Residuals: 
 +     Min        1Q    Median        3Q       Max  
 +-2.15667  -0.52711   0.00004   0.57062   1.94746  
 +
 +Coefficients:
 +                           Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)               8.903e-04  7.148e-01   0.001   0.9990  
 +cc                        2.720e+00  1.942e+00   1.400   0.1614  
 +residcp                   2.958e-01  1.144e+00   0.259   0.7959  
 +residap                   6.100e+00  3.457e+00   1.765   0.0776 .
 +residicf                  1.777e+01  4.791e+01   0.371   0.7107  
 +cc:residcp                2.254e+00  2.469e+00   0.913   0.3612  
 +cc:residap               -1.139e+01  6.819e+00  -1.671   0.0948 .
 +residcp:residap           3.366e+00  6.733e+00   0.500   0.6171  
 +cc:residicf               1.303e+02  9.422e+01   1.383   0.1666  
 +residcp:residicf          7.189e+01  7.935e+01   0.906   0.3649  
 +residap:residicf         -1.865e+02  1.105e+02  -1.687   0.0915 .
 +cc:residcp:residap       -4.014e+00  9.864e+00  -0.407   0.6840  
 +cc:residcp:residicf       1.768e+02  1.804e+02   0.980   0.3270  
 +cc:residap:residicf      -1.265e+02  1.864e+02  -0.679   0.4974  
 +residcp:residap:residicf -1.188e+02  1.208e+02  -0.983   0.3255  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 35.415  on 33  degrees of freedom
 +AIC: 65.415
 +
 +Number of Fisher Scoring iterations: 8
 +
 +> model3<-update(model2,~.-residcp:residap:residicf)
 +> model3<-update(model3,~.-cc:residcp:residap)
 +> model3<-update(model3,~.-cc:residcp:residicf)
 +> model3<-update(model3,~.-cc:residap:residicf) ##retirei todas as variáveis de interação de terceira ordem
 +> summary(model3)
 +
 +Call:
 +glm(formula = winner ~ cc + residcp + residap + residicf + cc:residcp + 
 +    cc:residap + residcp:residap + cc:residicf + residcp:residicf + 
 +    residap:residicf, family = binomial, data = rhp)
 +
 +Deviance Residuals: 
 +     Min        1Q    Median        3Q       Max  
 +-2.08128  -0.77576   0.00152   0.69086   1.77535  
 +
 +Coefficients:
 +                  Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)       -0.30775    0.63696  -0.483   0.6290  
 +cc                 2.13739    1.13343   1.886   0.0593 .
 +residcp           -0.07444    0.98070  -0.076   0.9395  
 +residap            5.09715    2.73435   1.864   0.0623 .
 +residicf         -34.85089   31.90875  -1.092   0.2747  
 +cc:residcp         0.55971    1.76659   0.317   0.7514  
 +cc:residap        -8.46827    4.82442  -1.755   0.0792 .
 +residcp:residap   -2.82548    5.18024  -0.545   0.5855  
 +cc:residicf      106.64228   67.65544   1.576   0.1150  
 +residcp:residicf  98.27909   66.66674   1.474   0.1404  
 +residap:residicf -53.23904   59.61328  -0.893   0.3718  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 39.889  on 37  degrees of freedom
 +AIC: 61.889
 +
 +Number of Fisher Scoring iterations: 8
 +
 +> model4<-update(model3,~.-residap:residicf)
 +> model4<-update(model4,~.-residcp:residicf)
 +> model4<-update(model4,~.-cc:residicf)
 +> model4<-update(model4,~.-residcp:residap)
 +> model4<-update(model4,~.-cc:residap)
 +> model4<-update(model4,~.-cc:residcp) ##retirei todas as variáveis de interação de segunda ordem
 +> summary(model4)
 +
 +Call:
 +glm(formula = winner ~ cc + residcp + residap + residicf, family = binomial, 
 +    data = rhp)
 +
 +Deviance Residuals: 
 +     Min        1Q    Median        3Q       Max  
 +-1.96317  -0.84158   0.07625   0.89531   1.84406  
 +
 +Coefficients:
 +             Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)  -0.04602    0.36469  -0.126   0.8996  
 +cc            1.10533    0.51435   2.149   0.0316 *
 +residcp      -0.26094    0.67409  -0.387   0.6987  
 +residap       3.38389    1.92797   1.755   0.0792 .
 +residicf    -22.82807   21.99361  -1.038   0.2993  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 48.522  on 43  degrees of freedom
 +AIC: 58.522
 +
 +Number of Fisher Scoring iterations: 6
 +
 +> model5.a<-update(model4,~.-residcp) ##aqui começa a ficar mais abstrato. Retirei todas as interações, e o próximo
 +##passo é retirar as variáveis preditoras. Porém, com qual começar? Nesse exemplo, retirei as três variáveis uma de 
 +##cada vez para testar se ocorria alguma diferença  
 +> summary(model5.a)
 +
 +Call:
 +glm(formula = winner ~ cc + residap + residicf, family = binomial, 
 +    data = rhp)
 +
 +Deviance Residuals: 
 +     Min        1Q    Median        3Q       Max  
 +-1.96280  -0.85466   0.06509   0.93314   1.88041  
 +
 +Coefficients:
 +             Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)  -0.06335    0.36102  -0.175   0.8607  
 +cc            1.19708    0.48209   2.483   0.0130 *
 +residap       3.10783    1.76794   1.758   0.0788 .
 +residicf    -22.57598   21.93488  -1.029   0.3034  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 48.673  on 44  degrees of freedom
 +AIC: 56.673
 +
 +Number of Fisher Scoring iterations: 6
 +
 +> model5.b<-update(model4,~.-residicf)
 +> summary(model5.b)
 +
 +Call:
 +glm(formula = winner ~ cc + residcp + residap, family = binomial, 
 +    data = rhp)
 +
 +Deviance Residuals: 
 +     Min        1Q    Median        3Q       Max  
 +-1.80431  -0.87733   0.08181   0.94072   1.98613  
 +
 +Coefficients:
 +            Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)  0.05349    0.34598   0.155   0.8771  
 +cc           1.10387    0.52173   2.116   0.0344 *
 +residcp     -0.24717    0.67063  -0.369   0.7125  
 +residap      1.88396    1.18945   1.584   0.1132  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 49.672  on 44  degrees of freedom
 +AIC: 57.672
 +
 +Number of Fisher Scoring iterations: 6
 +
 +> model5.c<-update(model4,~.-residap)
 +> summary(model5.c)
 +
 +Call:
 +glm(formula = winner ~ cc + residcp + residicf, family = binomial, 
 +    data = rhp)
 +
 +Deviance Residuals: 
 +    Min       1Q   Median       3Q      Max  
 +-1.5592  -1.0279   0.1118   1.0813   1.9536  
 +
 +Coefficients:
 +            Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)  0.07166    0.34001   0.211   0.8331  
 +cc           1.04896    0.49093   2.137   0.0326 *
 +residcp      0.20839    0.60450   0.345   0.7303  
 +residicf     7.19179   13.29175   0.541   0.5885  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 52.097  on 44  degrees of freedom
 +AIC: 60.097
 +
 +Number of Fisher Scoring iterations: 6
 +
 +> model6.a<-update(model5.a,~.-residicf) ##como não mudou nada, vou deixar a altura do armamento por estar mais
 +##próximo da significância (isso é algo muito subjetivo...)
 +> summary(model6.a)
 +
 +Call:
 +glm(formula = winner ~ cc + residap, family = binomial, data = rhp)
 +
 +Deviance Residuals: 
 +     Min        1Q    Median        3Q       Max  
 +-1.76831  -0.88066   0.06804   0.95081   2.02133  
 +
 +Coefficients:
 +            Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)  0.03707    0.34184   0.108   0.9136  
 +cc           1.19601    0.48320   2.475   0.0133 *
 +residap      1.64998    1.00108   1.648   0.0993 .
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 49.809  on 45  degrees of freedom
 +AIC: 55.809
 +
 +Number of Fisher Scoring iterations: 6
 +
 +> model6.b<-update(model5.c,~.-residicf)
 +> summary(model6.b)
 +
 +Call:
 +glm(formula = winner ~ cc + residcp, family = binomial, data = rhp)
 +
 +Deviance Residuals: 
 +    Min       1Q   Median       3Q      Max  
 +-1.5803  -1.0534   0.1193   1.0518   1.8817  
 +
 +Coefficients:
 +            Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)   0.0418     0.3346   0.125   0.9006  
 +cc            1.0341     0.4769   2.168   0.0301 *
 +residcp       0.3591     0.5289   0.679   0.4972  
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 52.393  on 45  degrees of freedom
 +AIC: 58.393
 +
 +Number of Fisher Scoring iterations: 6
 +> model7<-update(model6.a,~.-residap) ##a altura do armamento não atingiu significância, então retirei do modelo.
 +> summary(model7)
 +
 +Call:
 +glm(formula = winner ~ cc, family = binomial, data = rhp)
 +
 +Deviance Residuals: 
 +    Min       1Q   Median       3Q      Max  
 +-1.5413  -1.0682   0.1659   1.0794   1.8123  
 +
 +Coefficients:
 +            Estimate Std. Error z value Pr(>|z|)  
 +(Intercept)   0.0766     0.3308   0.232   0.8169  
 +cc            0.8691     0.3524   2.466   0.0136 *
 +---
 +Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 +
 +(Dispersion parameter for binomial family taken to be 1)
 +
 +    Null deviance: 66.208  on 47  degrees of freedom
 +Residual deviance: 52.874  on 46  degrees of freedom
 +AIC: 56.874
 +
 +Number of Fisher Scoring iterations: 5
 +
 +</code>
 +
 +Foram 10 passos para alcançar o modelo com melhor ajuste. Ou seja, inflou a probabilidade de erro tipo I em 10 vezes. Além disso, quando todas as interações foram retiradas, a eleminação de variáveis preditoras torna-se subjetiva, pois não existe como discriminar as variáveis mais das menos importantes. No fim, o modelo mínimo indica que apenas o tamanho corporal influencia significativamente a probabilidade de vitória (i.e. quanto maior um indivíduo em relação ao outro, maior é a sua chance de vencer).
 +
 +===== Seleção de Modelos com AIC =====
 +
 +A seleção de modelos utilizando o AIC é uma forma mais intuitiva, e com menos vieses, que a seleção de modelos demonstrada acima. Primeiramente, o AIC utiliza o valor de máxima verossimilhança para decidir qual modelo é mais provável [2]. Logo, o AIC ranqueia seus modelos utilizando-se da força de evidência de cada modelo (i.e. probabilidade do modelo A ocorrer dividido pela probabilidade do modelo B ocorrer, ou pA(x)/pB(x)), além de punir os modelos pelo seu número de parâmetros [2]. Ao utilizar-se da máxima verossimilhança, o AIC torna-se mais intuitivo do que a análise frequentista - o melhor modelo será aquele que possui a maior força de evidência em relação aos outros. Segundo, o problema de múltiplos testes deixa de existir, pois cada modelo é visto como uma hipótese a ser comparada com outras hipóteses (i.e. outros modelos). Terceiro, não importa a ordem de entrada dos modelos, nem a forma como eles estão formulados, o resultado será o mesmo [2]. Quarto, como cada modelo é considerado uma hipótese, o pesquisador tem a liberdade de usar a literatura para formular os modelos. Por isso, ao invés de comparar todos os modelos possíveis, irei listar apenas aqueles com evidências na literatura:
 +
 +Modelo 1 - Apenas tamanho corporal [7];\\
 +Modelo 2 - Apenas comprimento do armamento [7];\\
 +Modelo 3 - Apenas altura do armamento [7];\\
 +Modelo 4 - Apenas desempenho do armamento [7];\\
 +Modelo 5 a 7 - Tamanho corporal com adição de cada variável do armamento separadamente [8];\\
 +Modelo 8 - Apenas as variáveis do armamento [8];\\
 +Modelo 9 - Todas as variáveis [8].\\
 +
 +Para ranquearmos os modelos, calculamos o AIC (-2*log máxima verossimilhança + 2*número de parâmetros do modelo). O modelo com o menor valor de AIC é considerado o melhor, e então, subtraímos o valor do AIC de um modelo dos modelos com o valor do AIC do melhor modelo, obtendo assim uma medida relativa entre os modelos (i.e. ΔAIC; [2]). Esse valor relativo é importante por dois motivos: 1. Ele nos mostra que a nossa inferência pode ser feita apenas para os modelos que comparamos, mostrando-nos que o AIC é uma medida relativa entre as hipóteses que elencamos, e não todas as hipóteses que podem existir [9]; 2. Ele nos mostra a diferença no poder de evidência entre modelos. Contudo, precisamos saber quando um modelo tem poder de evidência suficiente para descartamos o(s) outro(s). Convencionou-se que um ΔAIC maior que dois é o suficiente para descartar o modelo, pois um valor maior que dois significa que o modelo é 7,3 vezes mais provável que outro [9].
 +
 +Nesse exemplo utilizarei o AICc, e não o AIC. O AICc possui uma correção para amostras pequenas, as quais não irei detalhar em profundidade aqui, pois não é o escopo do texto. Para mais informações, veja [2] e/ou [10].
 +<code>
 +
 +> modelo1<-glm(winner~cc,binomial,data=rhp)
 +> modelo2<-glm(winner~residcp,binomial,data=rhp)
 +> modelo3<-glm(winner~residap,binomial,data=rhp)
 +> modelo4<-glm(winner~residicf,binomial,data=rhp)
 +> modelo5<-glm(winner~cc+residcp,binomial,data=rhp)
 +> modelo6<-glm(winner~cc+residap,binomial,data=rhp)
 +> modelo7<-glm(winner~cc+residicf,binomial,data=rhp)
 +> modelo8<-glm(winner~residcp+residap+residicf,binomial,data=rhp)
 +> modelo9<-glm(winner~cc+residcp+residap+residicf,binomial,data=rhp)
 +> AICctab(modelo1,modelo2,modelo3,modelo4,modelo5,modelo6,modelo7,modelo8,
 ++ modelo9,nobs=length(rhp$winners),weights=T,logLik=T,base=T)
 +        logLik AICc  dLogLik dAICc df weight
 +modelo9 -24.3   48.5   8.8     0.0 5  0.5143
 +modelo6 -24.9   49.8   8.2     1.3 3  0.2703
 +modelo7 -26.1   52.2   7.0     3.7 3  0.0811
 +modelo5 -26.2   52.4   6.9     3.9 3  0.0743
 +modelo1 -26.4   52.9   6.7     4.4 2  0.0584
 +modelo8 -30.2   60.5   2.9    12.0 4  0.0013
 +modelo2 -32.7   65.4   0.4    16.8 2  <0.001
 +modelo3 -32.8   65.7   0.3    17.2 2  <0.001
 +modelo4 -33.1   66.2   0.0    17.7 2  <0.001
 +
 +</code>
 +
 +
 +|     ^Log Verossimilhança Negativa    ^AICc   ^ΔAICCc   ^Graus de liberdade   ^peso  ^
 +^Modelo 9 |          -24.3          |  48.5  |    0    |                   | 0.5143 |
 +^Modelo 6 |          -24.9                |  49.8  |   1.3                     | 0.2703 |
 +^Modelo 7 |          -26.1                |  52.2  |   3.7                     | 0.0811 |
 +^Modelo 5 |          -26.2                |  52.4  |   3.9                     | 0.0743 |     
 +^Modelo 1 |          -26.4                |  52.9  |   4.4                     | 0.0584 |
 +^Modelo 8 |          -30.2                |  60.5  |  12.0                     | 0.0013 |
 +^Modelo 2 |          -32.7                |  65.4  |  16.8                     | <0.001 |
 +^Modelo 3 |          -32.8                |  65.7  |  17.2                     | <0.001 |
 +^Modelo 4 |          -33.1                |  66.2  |  17.7                     | <0.001 |
 +
 +A seleção de modelos nos indica que o modelo saturado e o modelo com tamanho corporal e altura do armamento são os melhores. Porém, não há força de evidência para dizer qual desses dois é o melhor.
 +
 +===== Conclusão =====
 +
 +Os resultados das duas análises são bem distintos. Com a análise frequentista, eu poderia inferir que apenas o tamanho corporal do animal influencia na probabilidade vitória. Na seleção por AIC, por sua vez, eu poderia inferir que todas as variáveis afetam a probabilidade de vitória, e que o tamanho corporal e a altura do armamento são as variáveis mais influentes, dado que estão presentes nos dois modelos mais verossímeis. Por isso, a escolha das análises influência nas conclusões do estudo. 
 +
 +A análise frequentista se mostrou muito subjetiva, pois a retirada de termos dos modelos é extremamente subjetiva. Enquanto que a análise de AIC é mais intuitiva, e podemos utilizar informações prévias da literatura para diminuirmos o número de modelos, além de testar todas as hipóteses simultaneamente. No fim, a ideia de Chamberlin de elencar múltiplas hipóteses e compará-las diretamente se mostra mais efetiva do que a análise frequentista, que segue por caminhos tortuosos, e muitas vezes subjetivos, para chegar a um resultado. 
 +
 +===== Referências bibliográficas =====
 +
 +[1] Chamberlin, T. C. (1890). The method of multiple working hypotheses. Science, 15, 92-96.
 +
 +[2] Burnham, K. P. & Anderson, D. R. (2002). Model selection and multimodel inference: a practical information-theoretic approach, 2nd ed. Springer, New York.
 +
 +[3] Crawley, M. J. (2013). The R book, 2nd ed. Wiley, Chichester.
 +
 +[4] Wilkinson, L. (1979). Tests of significance in stepwise regression. Psychological Bulletin, 86, 168-174.
 +
 +[5] Whittingham, M. J.; Stephens, P. A.; Bradbury, R. B. & Freckelton R. P. (2006). Why do we still use stepwise modelling in ecology and behaviour? Journal of Animal Ecology, 75, 1182-1189.
 +
 +[6] Derksen, S. & Keselman, H. J. (1992). Backward, forward and stepwise automated subset selection algorithms: frequency of obtaining authentic and noise variables. British Journal of Mathematical and Statistical Psychology, 45, 265-282.
 +
 +[7] Briffa, M. & Sneddon, L. U. (2007). Physiological constraints on contest behaviour. Functional Ecology, 21, 627-637.
 +
 +[8] Arnott, G. & Elwood, R. W. (2009). Assessment of fighting ability in animal contests. Animal Behaviour, 77, 991-1004.
 +
 +[9] Batista, J.L.F. (2009). Verossimilhança e Máxima Verossimilhança. Centro de Métodos Quantitativos, Departamento de Ciências Florestais, Escola Superior de Agricultura “Luiz de Queiroz”, Universidade de São Paulo, Campus Piracicaba.
 +
 +[10] Symonds, M. R. E. & Moussalli, A. (2011). A brief guide to model selection, multimodel inference and model averaging in behavioural ecology using Akaike’s information criterion. Behavioral Ecology and Sociobiology, 65, 13–21.
 +
 +===== Citação =====
 +
 +Este ensaio é um produto de disciplina da pós-graduação da Universidade de São Paulo. Para citá-lo:
 +
 +Palaoro, A.V. 2014. O que a seleção de modelos e as ideias de Thomas Chamberlin tem em comum?. In: Prado , P.I & Batista, J.L.F. Modelagem Estatística para Ecologia e Recursos Naturais. Universidade de São Paulo. url: http://cmq.esalq.usp.br/BIE5781.