Regressão Múltipla Flashcards
<p>Forma matricial de y=XB+e</p>
<p>em geral y é um vetor de nx1 das observações</p>
<p>X é uma matriz nxp de níveis das variáveis regressores</p>
<p>B é um vetor px1 dos coeficientes de regressão e e é uma vetor de nx1 de erros aleatórios</p>


<p><strong>H</strong></p>
<p><strong>H=X(X'X)-1X'</strong></p>
<p><strong>e</strong></p>
<p><strong>e=(I-H)y</strong></p>








<p>Se temos 2 modelos com o mesmo coeficiente de determinação, qual escolher?</p>
<p>Escolher o que tiver menos erro quadrático médio</p>
<p>Quando não é interessante usar o diagrama de dispersão?</p>
<p>Quando temos duas observações de X com Y's diferentes. Ex.: Montgomery, 3.2.5</p>


<p>O que implica rejeita H0?</p>

<p>Implica que pelo menos um dos regressores x1, x2,..., xk contribui significativamente para o modelo</p>

<p>k=nº de variáveis regressoras do modelo</p>



<p>F0</p>

<p>E(MSRes)</p>

<p>E(MSR)</p>

<p>Quando podemos rejeitar</p>

<p>Quando</p>

<p>SSRes</p>

<p>SST</p>

<p>Graus de Liberdade de uma ANOVA</p>
<p>Regressão:k</p>
<p>Resíduos:n-k-1</p>
<p>Total:n-1</p>
<p>SSR</p>

<p>SSRes</p>

<p>quando o p-valor é pequeno nós podemos predizer a variável y em relação a x?</p>
<p>Não. Podemos apenas dizer que há relação. Porém a relação encontrada não é apropriada para predizer algo. Mais teste de adequacidade são necessários</p>


<p>O que acontece com o R2 quando é incluído um regressor ao modelo?</p>
<p>Em geral o R2 sempre aumenta quando é adicionado um regressor ao modelo, independentemente do valor da contribuição da variável</p>
<p>O que acontece com o R2 ajustado quando é incluído um regressor ao modelo?</p>
<p>O R2 ajustado só é aumentado se a adição da variável reduziu a MSERes</p>
<p>Qual a estatística teste t0 para rejetiar Bj=0 ou não?</p>

<p>Tendo t0=3,98, t0,025;22 e C22=0,00000123, o que podemos dizer da hipótese abaixo?</p>

<p>Rejeitamos H0:B2=0, e concluímos que o x2, contribui significativamente para o modelo dado que x1 está também no modelo</p>
<p>Para que serve o teste parcial de F?</p>
<p>Mede a contribuição dos regressores em <strong>X2</strong>, dado que as outros regressores estão no modelo</p>
<p>Quando podemos utilizar o método da somas dos quadrados extra?</p>
<p>Pode ser usado para testar hipóteses sobre algum subconjunto de variáveis regressoras que parecem razoáveis para um problema particular de análise.</p>


<p>SST utilizando a soma de quadrados extra</p>


<p>Desde que o F parcial envalva apenas uma variável</p>

<p>Se tivermos um modelo reduzido (MR) e um Modelo Cheio(MF) o que podemos dizer sobre SSRes desses modelos?</p>

<p>Para que serve o Hipótese Linear Geral?</p>
<p>Compara um modelo com todos os parâmetros <strong><em>versus</em></strong> um modelo reduzido</p>
<p>Página 98</p>
<p>pulei, intervalo de confiança e predição de regressão linear múltipla</p>
<p>O que é útil para detectar extrapolação escondida?</p>
<p>Os elementos diagonais hii da matriz <strong>H=X(X'X)-1X'</strong></p>
<p>Do que depende os valores de hii</p>
<p>dependem da distancia euclidianado ponto xi a centróide e a densidade dos pontos na RVH</p>
<p>Como interpretar o hii?</p>
<p>Em geral, os pontos que tem valores grandes de hii, diz hmax, é um ponto de extrapolação pois estão fora da elipsóide. Se estamos interessados em predizer um valor h00 e h00>hmax, pode-se dizer que é um ponto de extrapolação. Geralmente o menor h00 mente o valor da centróide</p>

<p>O que é VIFs, Variance Inflação factors?</p>
<p>É a inversa da matriz de correlação X'X, e é uma importante diagnóstico de multicolineariedade. Também podemos encontrá-lo como:</p>

<p>O que significa se encontrarmos VIFj maior que 10?</p>
<p>Indica sérios problemas com multicolineariedade</p>